JP7450857B2 - Measurement parameter optimization method and device, and computer control program - Google Patents

Measurement parameter optimization method and device, and computer control program Download PDF

Info

Publication number
JP7450857B2
JP7450857B2 JP2020097760A JP2020097760A JP7450857B2 JP 7450857 B2 JP7450857 B2 JP 7450857B2 JP 2020097760 A JP2020097760 A JP 2020097760A JP 2020097760 A JP2020097760 A JP 2020097760A JP 7450857 B2 JP7450857 B2 JP 7450857B2
Authority
JP
Japan
Prior art keywords
data
measurement
objects
robot
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020097760A
Other languages
Japanese (ja)
Other versions
JP2021148763A (en
Inventor
林 苗
星斗 付
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to US17/172,105 priority Critical patent/US11816754B2/en
Priority to DE102021103726.3A priority patent/DE102021103726B4/en
Priority to CN202110187293.9A priority patent/CN113386122B/en
Publication of JP2021148763A publication Critical patent/JP2021148763A/en
Application granted granted Critical
Publication of JP7450857B2 publication Critical patent/JP7450857B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、対象物を操作するロボットシステムにおける対象物の計測パラメータ最適化方法等に関する。 The present invention relates to a method for optimizing measurement parameters of an object in a robot system for manipulating the object.

ファクトリーオートメーション(FA:Factory Automation)における検査や生産ラインにおいて、ばら積みされたワーク(部品等)等の対象物の位置姿勢を計測し、認識した対象物をロボットによって別の場所や容器に移載したり、その対象物を加工したりする装置が知られている。かかる装置では、ロボットや計測装置の動作を最適に制御するためのパラメータが設定され、その制御パラメータに基づいて、ロボットや計測装置による種々のタスクが実行される。 In inspections and production lines in factory automation (FA), the position and orientation of objects such as bulk workpieces (parts, etc.) are measured, and the recognized objects are transferred to another location or container by a robot. There are known devices for processing objects. In such devices, parameters are set to optimally control the operations of robots and measuring devices, and various tasks are performed by the robots and measuring devices based on the control parameters.

例えば、特許文献1には、ロボット及び工作機械を備えており、複数の対象物に対して複数回の計測(マルチビュー計測)を行う計測装置において、計測パラメータとして複数の計測位置姿勢を順次決定する方法が記載されている。この方法では、ロボットの複数の移動終点位置を記憶し、それらに基づいて、ロボットの機構パラメータの誤差、及び、ロボットの座標系と工作機械の座標系との間の相対関係を同時に求めるキャリブレーションが行われる。 For example, Patent Document 1 describes a measurement device that is equipped with a robot and a machine tool and performs multiple measurements (multi-view measurement) on multiple objects, and sequentially determines multiple measurement positions and orientations as measurement parameters. It describes how to do this. In this method, multiple end-point positions of the robot are memorized, and based on these, errors in the robot's mechanical parameters and the relative relationship between the robot's coordinate system and the machine tool's coordinate system are simultaneously calculated. will be held.

特開2017-56546号公報JP2017-56546A

ところで、特許文献1等における従来の計測パラメータ設定においては、計測パラメータの最適化を行う際に、例えば、対象物の撮影速度、撮影枚数、及び撮影時間間隔といった複数パラメータの組み合わせの適否を評価する必要があるため、計測パラメータの調整及び最適化設定には多くの手間と長時間を要していた。また、計測装置がロボットに搭載されている場合、計測パラメータがロボットの機構特性に依存するため、ロボット毎に計測パラメータを調整する必要があった。さらに、対象物の認識における評価目標を変更する場合には、更に多くの手間と時間が掛かってしまうため、計測パラメータの調整及び最適化設定は更なる困難を極めることとなる。 By the way, in conventional measurement parameter settings such as in Patent Document 1, when optimizing measurement parameters, for example, the suitability of a combination of multiple parameters such as the shooting speed of the object, the number of shots, and the shooting time interval is evaluated. Therefore, adjusting measurement parameters and optimizing settings required a lot of effort and a long time. Furthermore, when the measurement device is mounted on a robot, the measurement parameters depend on the mechanical characteristics of the robot, so it is necessary to adjust the measurement parameters for each robot. Furthermore, changing the evaluation goal for object recognition requires even more effort and time, making adjustment and optimization settings of measurement parameters even more difficult.

そこで、本発明は、一側面では、かかる事情に鑑みてなされたものであり、ロボットに搭載された計測装置によって対象物を計測する際の計測パラメータを、従来に比して格段に簡略(手間の軽減、時間短縮、ロボット非依存)に調整及び最適化することができる方法等を提供することを目的とする。 Therefore, one aspect of the present invention has been made in view of the above circumstances, and it is possible to significantly simplify (labor and labor) measurement parameters when measuring an object with a measuring device mounted on a robot compared to the conventional method. The purpose of the present invention is to provide a method that can be adjusted and optimized to reduce the amount of time required, reduce time, and be independent of robots.

本発明は、上述した課題を解決するために、以下の構成を採用する。 The present invention adopts the following configuration in order to solve the above-mentioned problems.

〔1〕すなわち、本開示に係る計測パラメータの最適化方法の一例は、ロボットに設けられた計測装置(センサ)により一つ以上の対象物を計測するときの計測パラメータを最適化するための方法であって、以下の(1)乃至(4)に示す第1ステップ乃至第4ステップを含む。なお、「ロボット」の構成は特に限定されず、例えば、ロボットアーム、及び、そのロボットアームの先端部に設けられ且つ対象物を操作するハンドを有する構成が挙げられる。また、「計測装置」の構成も特に制限されず、例えば、ロボットアームに設けられており、対象物の位置情報(例えば、2次元又は3次元位置情報)を計測することができるものが挙げられる。これらの「ロボット」及び「計測装置」のより具体的な例については、後述する。 [1] That is, an example of the method for optimizing measurement parameters according to the present disclosure is a method for optimizing measurement parameters when measuring one or more objects with a measurement device (sensor) installed in a robot. This includes the first to fourth steps shown in (1) to (4) below. Note that the configuration of the "robot" is not particularly limited, and includes, for example, a configuration that includes a robot arm and a hand that is provided at the tip of the robot arm and that operates the object. Furthermore, the configuration of the "measuring device" is not particularly limited, and examples include devices that are installed on a robot arm and can measure positional information (e.g., two-dimensional or three-dimensional positional information) of an object. . More specific examples of these "robots" and "measuring devices" will be described later.

(1)第1計測パラメータとしての速度V、時間間隔T、及び合計移動角度θで計測装置を移動させながら、一つ以上の対象物を撮影して複数枚数Nの撮影画像を取得する第1ステップ。
(2)第2計測パラメータとしての速度V、時間間隔T×j(j:以上の整数)、及び合計移動角度θで計測装置を移動させながら、一つ以上の対象物を撮影して複数枚数N/jの撮影画像を取得し、且つ、一つ以上の対象物の位置姿勢を認識する画像処理を行ったと仮定した場合の、枚数i(ここではi=1,2,…,N/j-1,N/j)における対象物の認識の正確さを示す評価値Ziを推定し、第2計測パラメータに関連付けた評価値Ziを第1データとして記憶する第2ステップ。
(3)第1データに基づいて、第3計測パラメータとして、速度V×k(k:2以上の整数)、時間間隔T×j/k、及び合計移動角度θで前記計測装置を移動させながら、一つ以上の対象物を撮影して複数枚数N/j/kの撮影画像を取得し、且つ、上述の画像処理と同等の処理を行ったと仮定した場合の、枚数i(ここではi=1,2,…,N/j/k-1,N/j/k)における対象物の認識の正確さを示す評価値Ziを推定し、第3計測パラメータに関連付けた評価値Ziを第2データとして記憶する第3ステップ。
(4)第2データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、ロボットによる一つ以上の対象物の操作時における最適化計測パラメータとして決定する第4ステップ。
(1) A first step of photographing one or more objects to obtain a plurality of N photographed images while moving the measuring device at a speed V, a time interval T, and a total movement angle θ as the first measurement parameters. step.
(2) One or more objects are photographed while moving the measuring device at the second measurement parameter: speed V, time interval T x j (j: an integer of 2 or more), and total movement angle θ. Assuming that N/j captured images are acquired and image processing is performed to recognize the position and orientation of one or more objects, the number i (here, i=1, 2,..., N/ A second step of estimating an evaluation value Zi indicating the accuracy of recognition of the object at (j-1, N/j) and storing the evaluation value Zi associated with the second measurement parameter as first data.
(3) Based on the first data, while moving the measuring device at a speed V x k (k: an integer of 2 or more), a time interval T x j/k, and a total movement angle θ as third measurement parameters. , the number of images i (here i= 1, 2, ..., N/j/k-1, N/j/k), and the evaluation value Zi associated with the third measurement parameter is estimated as the second measurement parameter. The third step is to store it as data.
(4) A fourth step of selecting measurement parameters of data that satisfy predetermined criteria from the second data and determining them as optimized measurement parameters when the robot operates one or more objects.

当該構成では、ロボットシステムの実稼働前に予め取得した基本データである第1データに基づいて、計測パラメータを異なる条件(第2計測パラメータ、第3計測パラメータ)へ変更した場合に、その変更後のパラメータによる実際の計測を行うことなく、一つ以上の対象物の認識結果を推定することができる。よって、計測パラメータとして想定され得る条件の全ての組み合わせについて事前計測を行う必要がなく、想定されるワーク5の種類毎に、実稼働前に一度だけ詳細な事前計測を行うだけで、センサ1による計測パラメータの最適化を行うことができる。従って、ロボットに搭載された計測装置によって対象物を計測する際の計測パラメータを、従来に比して格段に簡略(手間の軽減、時間短縮、ロボット非依存等)に調整及び最適化することができる。これにより、対象物の計測時におけるロバスト性、対象物の操作の作業効率、及び、全体のスループットを向上させることができ、その結果、ユーザの利便性、及び、汎用性も格段に向上させることが可能となる。 In this configuration, when the measurement parameters are changed to different conditions (second measurement parameters, third measurement parameters) based on the first data, which is basic data acquired in advance before the actual operation of the robot system, after the change It is possible to estimate the recognition results of one or more objects without actually measuring the parameters. Therefore, there is no need to perform preliminary measurements for all possible combinations of conditions that can be assumed as measurement parameters. Measurement parameters can be optimized. Therefore, it is possible to adjust and optimize the measurement parameters used when measuring an object using a measuring device mounted on a robot, much more easily than before (reducing labor, shortening time, independent of the robot, etc.). can. As a result, it is possible to improve the robustness when measuring objects, the work efficiency of object manipulation, and the overall throughput, and as a result, user convenience and versatility are also significantly improved. becomes possible.

〔2〕上記構成において、より具体的には、所定の判定基準は、対象物の評価値Ziが、予め設定された対象物の評価値以上であることを含んでもよい。当該構成では、判定基準における所定の評価値をより大きく設定することにより、ロバスト性を更に向上させることができ、計測精度の向上を優先する場合に有利となる。 [2] In the above configuration, more specifically, the predetermined criterion may include that the evaluation value Zi of the object is equal to or greater than a preset evaluation value of the object. In this configuration, by setting a larger predetermined evaluation value in the determination criteria, the robustness can be further improved, which is advantageous when giving priority to improving measurement accuracy.

〔3〕また、所定の判定基準が、予め設定された対象物の評価値以上であることに加え、さらに、少なくとも計測に掛かる所要時間がより短いことを含んでもよい。当該構成では、所望の評価値を満たしつつ、計測に掛かる所要時間を最小化することができ、計測処理時間の低減を優先する場合に有利となる。 [3] In addition to the predetermined criterion being equal to or greater than a preset evaluation value of the object, the predetermined criterion may also include at least the time required for measurement being shorter. With this configuration, the time required for measurement can be minimized while satisfying a desired evaluation value, which is advantageous when prioritizing reduction of measurement processing time.

〔4〕また、所定の判定基準が、予め設定された対象物の評価値以上であることに加え、さらに、計測装置の移動の速度Vがより速いことを含んでもよい、当該構成では、所望の評価値を満たしつつ、計測装置の移動時の速度Vを優先する場合に有利となる。 [4] In addition, in addition to the predetermined criterion being equal to or higher than a preset evaluation value of the object, the predetermined criterion may also include that the speed V of movement of the measuring device is faster. This is advantageous when giving priority to the speed V during movement of the measuring device while satisfying the evaluation value of .

〔5〕また、所定の判定基準が、予め設定された対象物の評価値以上であることに加え、さらに、一つ以上の対象物の撮影枚数iがより少ないことを含んでもよい、当該構成では、所望の評価値を満たしつつ、撮影枚数iの低減を優先する場合に有利となる。 [5] In addition, the predetermined criterion may include, in addition to being equal to or greater than a preset evaluation value of the object, that the number of shots i of one or more objects is smaller. In this case, it is advantageous to give priority to reducing the number of photographed images i while satisfying the desired evaluation value.

〔6〕さらに、上記各構成においては、第1計測パラメータによる一つ以上の対象物の撮影を、少なくとも1回、好ましくは複数回実施し、複数回の撮影を実施した場合、各撮影について取得した評価値Ziの平均値を、第1データとして記憶するように構成してもよい。当該構成では、実験的に求める第1データの精度及び信頼性を高めることができ、その結果、一つ以上の対象物の計測時におけるロバスト性、一つ以上の対象物の操作における作業効率、及び、全体のスループットをより一層向上させることができる。 [6] Furthermore, in each of the above configurations, one or more objects are photographed using the first measurement parameter at least once, preferably multiple times, and when photographing is performed multiple times, the data is acquired for each photograph. The average value of the evaluation values Zi may be stored as the first data. With this configuration, it is possible to improve the accuracy and reliability of the first data obtained experimentally, and as a result, robustness when measuring one or more objects, work efficiency when operating one or more objects, Moreover, the overall throughput can be further improved.

〔7〕またさらに、前述の如くロボットが変更されたようなときに、ロボットと異なるロボットの特性に応じた速度V及び時間間隔Tに対応する計測パラメータに対応するデータが、第1データ乃至第3データに含まれている場合、該第1データ乃至第3データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、前記異なるロボットによる前記複数の対象物の操作時における最適化計測パラメータとして決定するように構成してもよい。当該構成では、前述のとおり、ロボットに依存することなく、計測パラメータの最適化を実現することができる簡略な手法を提供することが可能となる。 [7] Furthermore, when the robot is changed as described above, the data corresponding to the measurement parameters corresponding to the speed V and the time interval T according to the characteristics of the robot different from the robot are changed from the first data to the first data. 3 data, select measurement parameters of data that satisfy predetermined criteria from the first data to third data, and optimize the operation of the plurality of objects by the different robots. It may be configured to be determined as a measurement parameter. With this configuration, as described above, it is possible to provide a simple method capable of optimizing measurement parameters without depending on the robot.

〔8〕或いは、同様に、前記ロボットと異なるロボットの特性に応じた速度V及び時間間隔Tに対応する計測パラメータに対応するデータが、前記第1データ乃至第2データに含まれている場合、対応するデータの計測パラメータに関連付けられたデータを新たな第1データとして、第2ステップ乃至第4ステップを実施することにより新たな第2データを取得及び記憶し、新たな第2データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、異なるロボットによる一つ以上の対象物の操作時における最適化計測パラメータとして決定するように構成してもよい。当該構成でも、前述のとおり、ロボットに依存することなく、計測パラメータの最適化を実現することができる簡略な手法を提供することが可能となる。 [8] Alternatively, similarly, when the first data to second data include data corresponding to measurement parameters corresponding to a speed V and a time interval T depending on the characteristics of a robot different from the robot, New second data is acquired and stored by performing the second to fourth steps using the data associated with the measurement parameters of the corresponding data as new first data, and from among the new second data. , measurement parameters of data satisfying predetermined criteria may be selected and determined as optimization measurement parameters when operating one or more objects by different robots. Even with this configuration, as described above, it is possible to provide a simple method that can realize optimization of measurement parameters without depending on the robot.

〔9〕また、本開示に係る計測パラメータの最適化装置の一例は、ロボットに設けられた計測装置により複数の対象物を計測するときの計測パラメータを最適化するための装置であって、当該装置は、少なくとも1つのプロセッサを有しており、該少なくとも1つのプロセッサが、本開示の計測パラメータの最適化方法における各ステップを実行する。 [9] Further, an example of the measurement parameter optimization device according to the present disclosure is a device for optimizing measurement parameters when measuring a plurality of objects with a measurement device installed in a robot. The apparatus has at least one processor that performs each step in the metrology parameter optimization method of the present disclosure.

〔10〕また、本開示に係るコンピュータ制御プログラムの一例は、ロボットに設けられた計測装置により複数の対象物を計測するときの計測パラメータの最適化を行うために、少なくとも1つのプロセッサを有するコンピュータに、本開示の計測パラメータの最適化方法における各ステップを実行させるプログラムであり、換言すれば、コンピュータを、上記の本開示に係る計測パラメータの最適化装置として有効に機能させるためのプログラムである。 [10] Further, an example of the computer control program according to the present disclosure is a computer control program having at least one processor, in order to optimize measurement parameters when measuring a plurality of objects with a measurement device installed in a robot. In other words, it is a program for causing a computer to effectively function as the measurement parameter optimization device according to the present disclosure. .

〔11〕また、本開示に係るロボットシステムの一例は、ロボットと、ロボットに設けられた計測装置と、ロボット及び計測装置に接続された制御装置とを備え、制御装置は、少なくとも1つのプロセッサを有しており、少なくとも1つのプロセッサが、本開示の計測パラメータの最適化方法における各ステップを実行するシステムである。換言すれば、ロボットシステムにおいては、本開示に係る計測パラメータの最適化装置が制御装置として機能する。 [11] Further, an example of a robot system according to the present disclosure includes a robot, a measuring device provided on the robot, and a control device connected to the robot and the measuring device, and the control device includes at least one processor. and at least one processor is a system that executes each step in the metrology parameter optimization method of the present disclosure. In other words, in the robot system, the measurement parameter optimization device according to the present disclosure functions as a control device.

なお、本開示において、「部」及び「装置」とは、単に物理的手段を意味するものではなく、その「部」及び「装置」が有する機能をソフトウェアによって実現する構成も含む。また、1つの「部」及び「装置」が有する機能が2つ以上の物理的手段や装置によって実現されてもよく、或いは、2つ以上の「部」及び「装置」の機能が1つの物理的手段や装置によって実現されてもよい。さらに、「部」及び「装置」とは、例えば「手段」及び「システム」と言い換えることも可能な概念である。 Note that in the present disclosure, "units" and "devices" do not simply mean physical means, but also include configurations that implement the functions of the "units" and "devices" by software. Furthermore, the functions of one "department" and "device" may be realized by two or more physical means or devices, or the functions of two or more "departments" and "devices" may be realized by one physical means or device. It may be realized by physical means or devices. Furthermore, "unit" and "device" are concepts that can also be translated into, for example, "means" and "system."

本発明によれば、ロボットに搭載された計測装置によって対象物を計測する際の計測パラメータを、従来に比して格段に簡略(手間の軽減、時間短縮、ロボット非依存等)に調整及び最適化することができる。これにより、対象物の計測時におけるロバスト性、対象物の操作の作業効率、及び、全体のスループットを向上させることができ、その結果、ユーザの利便性、及び、汎用性も格段に向上する。 According to the present invention, measurement parameters when measuring an object with a measuring device mounted on a robot can be adjusted and optimized much more easily than in the past (reducing labor, reducing time, independent of the robot, etc.) can be converted into This makes it possible to improve the robustness during measurement of the target object, the work efficiency of manipulating the target object, and the overall throughput, and as a result, user convenience and versatility are significantly improved.

本実施形態に係る制御装置を備えるロボットシステムの適用場面の一例を模式的に示す平面図である。FIG. 1 is a plan view schematically showing an example of an application scene of a robot system including a control device according to the present embodiment. 本実施形態に係る制御装置を備えるロボットシステムの適用場面の一例を模式的に示す平面図である。FIG. 1 is a plan view schematically showing an example of an application scene of a robot system including a control device according to the present embodiment. 本実施形態に係る制御装置を備えるロボットシステムのハードウェアの構成の一例を模式的に示す平面図である。FIG. 1 is a plan view schematically showing an example of the hardware configuration of a robot system including a control device according to the present embodiment. 本実施形態に係る制御装置を備えるロボットシステムの機能構成の一例を模式的に示す平面図である。FIG. 1 is a plan view schematically showing an example of the functional configuration of a robot system including a control device according to the present embodiment. 動作例に係る制御装置を備えるロボットシステムにおける処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure in the robot system provided with the control device based on an example of operation. 動作例のステップS501におけるセンサ1の移動状態の概念を模式的に示す平面図である。FIG. 6 is a plan view schematically showing the concept of the movement state of the sensor 1 in step S501 of the operation example. 動作例のステップS502における第1データ、及び、ステップS503における第1データの一例を表形式で示す図である。It is a figure which shows an example of the 1st data in step S502 of an example of operation|movement, and the 1st data in step S503 in a table format. 動作例のステップS504における第2データの一例を表形式で示す図である。It is a figure which shows an example of the 2nd data in step S504 of an example of operation in a table format. 動作例のステップS504における第2データの一例を表形式で示す図である。It is a figure which shows an example of the 2nd data in step S504 of an example of operation in a table format. 動作例のステップS504における第2データの一例を表形式で示す図である。It is a figure which shows an example of the 2nd data in step S504 of an example of operation in a table format. 複数のワーク5(六角ボルト)について、センサ1を用いて実験的にステップS501乃至S504を実行して得た第2データの具体的な一例を表形式で示す図である。FIG. 7 is a diagram showing in a table format a specific example of second data obtained by experimentally performing steps S501 to S504 using the sensor 1 for a plurality of works 5 (hexagonal bolts). 図11に示すデータセットの一例について、センサ1による複数のワーク5の撮影画像に、認識結果(輪郭線)を重ねて表示した平面図である。12 is a plan view of an example of the data set shown in FIG. 11 in which recognition results (contours) are displayed superimposed on images taken by the sensor 1 of a plurality of works 5. FIG. 図11に例示した第2データを、認識数Ziが大きい順にデータをソートし、且つ、同じ認識数Ziのデータを、速度Vが大きい順にソートした図である。12 is a diagram obtained by sorting the second data illustrated in FIG. 11 in descending order of recognition number Zi, and sorting data with the same recognition number Zi in descending order of speed V. FIG. 図11に例示した第2データを、認識数Ziが大きい順にデータをソートし、且つ、同じ認識数Ziのデータを、撮影枚数iが小さい順にソートした図である。12 is a diagram in which the second data illustrated in FIG. 11 is sorted in descending order of the number of recognitions Zi, and data with the same number of recognitions Zi is sorted in descending order of the number of photographed images i. 第4変形例における処理手順の一例を示すフローチャートである。It is a flow chart which shows an example of a processing procedure in a 4th modification. 異なる形状の複数のワーク5を計測し、それらの撮像画像に、画像処理によるワーク5の位置姿勢の認識結果(輪郭線)を重ねて表示した平面図である。FIG. 3 is a plan view in which a plurality of works 5 having different shapes are measured, and a recognition result (contour line) of the position and orientation of the works 5 obtained by image processing is superimposed on the captured images thereof.

以下、本開示の一例に係る実施の形態(以下「実施形態」と表記する。)について、図面を参照して説明する。但し、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図ではない。すなわち、本開示の一例は、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付しており、図面は模式的なものであって、必ずしも実際の寸法や比率等とは一致しない。さらに、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることがある。 Embodiments (hereinafter referred to as "embodiments") according to an example of the present disclosure will be described below with reference to the drawings. However, the embodiments described below are merely examples, and are not intended to exclude the application of various modifications and techniques not explicitly described below. That is, an example of the present disclosure can be implemented with various modifications without departing from the spirit thereof. In addition, in the description of the drawings below, the same or similar parts are given the same or similar symbols, and the drawings are schematic and do not necessarily correspond to actual dimensions, proportions, etc. Further, the drawings may include portions with different dimensional relationships and ratios.

§1 適用例
まず、図1及び図2を用いて、本開示の一例が適用される場面の一例について説明する。図1及び図2は、それぞれ、本実施形態に係る制御装置を備えるロボットシステムの適用場面の一例を模式的に示す平面図である。本実施形態に係るロボットシステム100は、例えばビン等の収納容器6内にばら積みされた複数のワーク5を、ロボット10により、収納容器6から取り出して他の収納容器7等へ移載し、整列させて配置する操作(図2の移動経路P1)、及び/又は、あるワーク5を移載し終えたロボット10を、次のワーク5を取り出すために、収納容器6側へ復帰させる操作(図2の移動経路P2)を行うことができる。なお、ワーク5は、収納容器6内ではなく、例えば、テーブルや台等に平積みされていてもよい。また、ワーク5の種類は、特に制限されず、例えば、自動車のパワートレイン系(例えば、エンジン、又はトランスミッション等)の機械部品、又は電装系の電子部品等を挙げることができる。また、かかるロボットシステム100は、ロボット10の他、そのロボット10に設けられたセンサ1(本開示における「計測装置」の一例)と、センサ1及びロボット10に接続された制御装置4(本開示における「計測パラメータの最適化っ装置」の一例)を備える。
§1 Application Example First, an example of a scene to which an example of the present disclosure is applied will be described using FIGS. 1 and 2. 1 and 2 are plan views each schematically showing an example of an application scene of a robot system including a control device according to this embodiment. The robot system 100 according to the present embodiment uses a robot 10 to take out a plurality of works 5 stacked in bulk in a storage container 6 such as bottles, transfer them to another storage container 7, etc., and arrange them. and/or the operation of returning the robot 10 that has finished transferring a certain workpiece 5 to the storage container 6 side in order to take out the next workpiece 5 (the movement path P1 in FIG. 2). 2 movement route P2) can be performed. Note that the workpieces 5 may be stacked flat on a table, stand, etc., instead of inside the storage container 6. Further, the type of workpiece 5 is not particularly limited, and examples thereof include mechanical parts of an automobile's power train system (for example, an engine or a transmission, etc.), electronic parts of an electrical system, and the like. In addition to the robot 10, the robot system 100 also includes a sensor 1 provided on the robot 10 (an example of a "measuring device" in the present disclosure), and a control device 4 (in the present disclosure) connected to the sensor 1 and the robot 10. (an example of a "measuring parameter optimization device").

センサ1は、ワーク5の位置情報(例えば3次元位置情報)を含む計測データを取得する3Dセンサであり、ロボット10のロボットアーム3の先端部に設置されていて、図1(A)及び(B)に示すように、ワーク5を所定の視野(角)で且つ所定の計測パラメータで撮像する。かかるセンサ1は、例えば、点群を計測する距離センサであり、或いは、距離センサと2次元センサとを組み合わせて距離画像を取得する距離画像センサでもよい。距離センサは、奥行情報としての距離dを計測するセンサである。2次元センサは、2次元の画像を撮影するイメージセンサであり、2次元の画像は、距離dを画素値としない点において距離画像とは異なる。距離画像センサは、例えば、2次元センサの撮影位置を変えながらワーク5の複数の2次元の画像を撮影し、ステレオ立体視の画像処理により、距離dを画素値とする距離画像を取得するカメラでもよい。または、距離画像センサは、ワーク5を複数の異なる方向から同時に撮影することにより、距離dを画素値とする距離画像を取得するステレオカメラでもよい。 The sensor 1 is a 3D sensor that acquires measurement data including position information (for example, three-dimensional position information) of the workpiece 5, and is installed at the tip of the robot arm 3 of the robot 10, as shown in FIGS. As shown in B), the workpiece 5 is imaged with a predetermined field of view (angle) and with predetermined measurement parameters. The sensor 1 may be, for example, a distance sensor that measures a point group, or a distance image sensor that acquires a distance image by combining a distance sensor and a two-dimensional sensor. The distance sensor is a sensor that measures distance d as depth information. A two-dimensional sensor is an image sensor that takes a two-dimensional image, and a two-dimensional image differs from a distance image in that the distance d is not a pixel value. The distance image sensor is, for example, a camera that photographs a plurality of two-dimensional images of the workpiece 5 while changing the photographing position of the two-dimensional sensor, and acquires a distance image with a distance d as a pixel value through stereoscopic image processing. But that's fine. Alternatively, the distance image sensor may be a stereo camera that acquires a distance image with the distance d as a pixel value by simultaneously photographing the workpiece 5 from a plurality of different directions.

また、センサ1は、必須ではないが、必要に応じて、適宜の計測光(例えば、アクティブ方式で用いられるパターン光やスキャン光等)を含むいわゆる3D用照明や、通常の照明であるいわゆる2D用照明をワーク5へ投射するプロジェクタ(図示せず)を有していてもよい。かかるプロジェクタの構成も特に制限されず、例えば、パターン光を投射するものの場合、レーザ光源、パターンマスク、及びレンズを備える構成を例示することができる。レーザ光源から出射された光は、所定のパターンが形成されたパターンマスクによって所定のパターンを有する計測光(パターン光)に変換され、レンズを介してワーク5へ投射される。 Although not essential, the sensor 1 may be equipped with so-called 3D illumination including appropriate measurement light (for example, pattern light or scan light used in an active method) or so-called 2D illumination, which is normal illumination, as needed. The workpiece 5 may include a projector (not shown) that projects lighting onto the workpiece 5. The configuration of such a projector is not particularly limited either, and for example, in the case of projecting pattern light, a configuration including a laser light source, a pattern mask, and a lens can be exemplified. The light emitted from the laser light source is converted into measurement light (pattern light) having a predetermined pattern by a pattern mask on which a predetermined pattern is formed, and is projected onto the workpiece 5 via a lens.

この「所定のパターン」としては、特に制限されず、例えばアクティブワンショット方式で用いられる種々のパターンを例示することができる。より具体的には、例えば、複数のラインが所定の間隔で2次元に配置されたいわゆるラインベースのパターン、互いに区別可能な複数種類の単位画像、単位図形、幾何学形状等が2次元に配置(規則的でもランダムでもよく、規則的な部分とランダムな部分が混合又は重畳されていてもよい。)されたいわゆるエリアベースのパターン、縦横ラインのグリッドにグラフシンボル等が配置されたいわゆるグリッドグラフベースのパターン等が挙げられる。なお、各所定のパターンは、エンコード用に、例えばラインや単位図形を区別するためのID情報を含んでいてもよい。 This "predetermined pattern" is not particularly limited, and can be exemplified by various patterns used in the active one-shot method, for example. More specifically, for example, so-called line-based patterns in which multiple lines are arranged two-dimensionally at predetermined intervals, multiple types of mutually distinguishable unit images, unit figures, geometric shapes, etc. arranged two-dimensionally. (It may be regular or random, and regular and random parts may be mixed or superimposed.) A so-called area-based pattern, a so-called grid graph in which graph symbols, etc. are arranged in a grid of vertical and horizontal lines. Examples include base patterns. Note that each predetermined pattern may include ID information for distinguishing, for example, a line or a unit figure for encoding.

また、ワーク5の計測方式としては、特に制限されず、例えば、光の直進性を用いる種々のアクティブ計測方式(例えば、三角測距を基本原理とする空間コード化パターン投影方式、時間コード化パターン投影方式、モアレトポグラフィ方式等)、光の直進性を用いる種々のパッシブ計測方式(例えば、三角測距を基本原理とするステレオカメラ方式、視体積交差方式、因子分解方式等、同軸測距を基本原理とするDepth from focusing方式等)、及び、光の速度を用いる種々のアクティブ計測方式(例えば、同時測距を基本原理とする飛行時間方式(Time of Flight)、レーザースキャン方式等)を適宜選択して用いる
ことができる。
The measurement method for the workpiece 5 is not particularly limited, and includes, for example, various active measurement methods that use the straightness of light (e.g., a space-coded pattern projection method based on triangulation, a time-coded pattern projection method, etc.). projection method, moiré topography method, etc.), various passive measurement methods that use the straightness of light (e.g., stereo camera method based on triangulation distance measurement, visual volume intersection method, factorization method, etc.), coaxial distance measurement method, etc. (e.g. Depth from focusing method based on the basic principle) and various active measurement methods using the speed of light (e.g. time of flight method based on simultaneous ranging, laser scanning method, etc.) as appropriate. It can be used as

ワーク5の計測データとしては、それらの種々の計測方式で取得される画像データ(例えば3次元点群データや距離画像等)、また、ワーク5の3次元モデルデータと照合することが可能な適宜のデータ等を例示できる。ここで、ワーク5の3次元モデルデータとしては、例えば、3次元座標データ、その3次元座標データをワーク5の種々の異なる位置姿勢に対応して2次元投影した2次元座標データ、その他適宜のテンプレートやパターンに対応するデータ等が挙げられる。なお、ワーク5の認識において、3次元モデルデータとの照合は必須ではなく、モデルデータを用いない(いわゆるモデルレス)認識も適用可能である。 The measurement data of the workpiece 5 includes image data obtained by these various measurement methods (for example, three-dimensional point cloud data, distance images, etc.), and appropriate data that can be compared with the three-dimensional model data of the workpiece 5. The following data can be exemplified. Here, the three-dimensional model data of the workpiece 5 includes, for example, three-dimensional coordinate data, two-dimensional coordinate data obtained by two-dimensionally projecting the three-dimensional coordinate data corresponding to various different positions and orientations of the workpiece 5, and other appropriate data. Examples include data corresponding to templates and patterns. Note that in recognizing the workpiece 5, matching with three-dimensional model data is not essential, and recognition that does not use model data (so-called model-less) is also applicable.

ロボット10は、例えば、ワーク5を操作(例えば、把持、吸着、移動、組み立て、又は挿入等)するためのハンド2と、そのハンド2が先端部に設けられたロボットアーム3を備える多関節ロボット(例えば、垂直多関節ロボット、水平多関節ロボット)である。ロボット10の各関節には、関節を駆動するためのサーボモータ等の駆動装置と、関節の変位(角度変位)を検出するためのエンコーダ等の変位検出装置が組み込まれている。また、ロボット10は、自律的に動作するマニピュレータとして動作し、例えば、ワーク5のピッキング、組み立て、搬送、塗装、検査、研磨、又は洗浄等の様々な用途に用いることができる。 The robot 10 is, for example, an articulated robot that includes a hand 2 for manipulating (for example, gripping, suctioning, moving, assembling, or inserting) a workpiece 5, and a robot arm 3 with the hand 2 provided at the tip. (For example, vertically articulated robot, horizontally articulated robot). Each joint of the robot 10 is equipped with a drive device such as a servo motor for driving the joint, and a displacement detection device such as an encoder for detecting displacement (angular displacement) of the joint. Further, the robot 10 operates as an autonomous manipulator, and can be used for various purposes such as picking, assembling, transporting, painting, inspecting, polishing, or cleaning the workpiece 5, for example.

ハンド2は、エンドエフェクタの一例であり、個々のワーク5を把持し且つ解放(掴み且つ離す)動作が可能な把持機構を有する。ロボットアーム3は、ハンド2を収納容器6内のワーク5の把持位置(ピックアップ位置)へ移動し、且つ、ワーク5を把持したハンド2をその把持位置から他の収納容器7における解放位置(ドロップ位置)へと移動するための駆動機構を有する。 The hand 2 is an example of an end effector, and has a gripping mechanism capable of gripping and releasing (grabbing and releasing) each workpiece 5 . The robot arm 3 moves the hand 2 to the gripping position (pickup position) of the workpiece 5 in the storage container 6, and moves the hand 2 gripping the workpiece 5 from the gripping position to the release position (dropping position) in another storage container 7. position).

制御装置4は、センサ1及びロボット10のそれぞれに接続されており、センサ1によるワーク5の計測処理、ハンド2によるワーク5の操作処理、ロボット10(ハンド2及びロボットアーム3等)の駆動処理の他、ロボットシステム100において必要とされる種々の動作や演算に関する処理を制御する。また、制御装置4は、ロボットシステム100の実稼働に先立って、センサ1により複数のワーク5を計測するときの計測パラメータの最適化を実行する。 The control device 4 is connected to each of the sensor 1 and the robot 10, and performs processing for measuring the workpiece 5 by the sensor 1, processing for operating the workpiece 5 by the hand 2, and processing for driving the robot 10 (hand 2, robot arm 3, etc.). In addition, it controls processing related to various operations and calculations required in the robot system 100. Further, the control device 4 executes optimization of measurement parameters when measuring the plurality of works 5 with the sensor 1 prior to actual operation of the robot system 100.

この最適化処理では、まず、(1)複数のワーク5の位置姿勢をより詳細に計測評価することが可能な第1計測パラメータを設定し、その条件でセンサ1を移動させながら、想定される複数のワーク5(例えば、収納容器6内にばら積みされた複数のワーク5)を複数回撮影する。次に、(2)得られた複数枚数Nの撮影画像から選択された異なる枚数iの撮影画像を用いた画像処理を行って、ワーク5の認識の正確さを示す評価値Zi(例えば、認識されたワーク5の数)を取得し、その評価値Ziを第1計測パラメータとともに第1データとして記憶する。次に、(3)センサ1の移動速度以外の条件が第1計測パラメータと異なる第2計測パラメータで複数のワーク5を撮影し、且つ、上記の画像処理と同等の処理を行ったと仮定した場合のワーク5の認識の正確さを示す評価値Zi(例えば、認識されたワーク5の数)を推定し、その評価値Ziを第2計測パラメータとともに第1データとして記憶する。 In this optimization process, first, (1) first measurement parameters that enable more detailed measurement and evaluation of the positions and orientations of multiple workpieces 5 are set, and while moving the sensor 1 under those conditions, the assumed A plurality of works 5 (for example, a plurality of works 5 stacked in bulk in a storage container 6) are photographed multiple times. Next, (2) image processing is performed using a different number i of captured images selected from the plurality of N captured images obtained, and an evaluation value Zi (for example, recognition the number of workpieces 5 that have been measured), and its evaluation value Zi is stored as first data together with the first measurement parameter. Next, (3) assume that a plurality of workpieces 5 are photographed using a second measurement parameter that is different from the first measurement parameter except for the moving speed of the sensor 1, and that processing equivalent to the image processing described above is performed. An evaluation value Zi (for example, the number of recognized works 5) indicating the accuracy of recognition of the works 5 is estimated, and the evaluation value Zi is stored as first data together with the second measurement parameter.

さらに、(4)上述のステップ(2)及び(3)のうち何れか一方又は両方で得られた第1データを用いて、第1計測パラメータ及び第2計測パラメータとは異なる第3計測パラメータで、複数のワーク5を撮影し、且つ、上記の画像処理と同等の処理を行ったと仮定した場合のワーク5の認識の正確さを示す評価値Zi(例えば、認識されたワーク5の数)を推定し、その評価値Ziを第3計測パラメータとともに第2データとして記憶する。そして、(5)得られた第2データのなかから、所定の判定基準(例えば、所定の評価値以上であり、且つ、計測時間、移動速度、及び撮影枚数のうちの少なくとも何れかの基準)を満たすデータの計測パラメータを少なくとも1つ選定し、それらのなかから、例えばユーザが所望の計測パラメータを、ロボットシステム100の実稼働時における最適化計測パラメータとして決定する。 Furthermore, (4) using the first data obtained in either or both of steps (2) and (3) above, a third measurement parameter different from the first measurement parameter and the second measurement parameter is set. , an evaluation value Zi (for example, the number of recognized workpieces 5) indicating the accuracy of recognition of the workpieces 5 when a plurality of workpieces 5 are photographed and processing equivalent to the image processing described above is performed. The estimated value Zi is stored as second data together with the third measurement parameter. (5) From the obtained second data, a predetermined criterion (for example, a predetermined evaluation value or more, and at least one of the following criteria: measurement time, moving speed, and number of shots) At least one measurement parameter of data that satisfies is selected, and from among them, for example, a measurement parameter desired by the user is determined as an optimized measurement parameter during actual operation of the robot system 100.

かかる本適用例の制御装置4、及び、それを備えるロボットシステム100、並びに、それらにおいて実施される計測パラメータの最適化方法によれば、基本となる第1計測パラメータを用いて、ロボットシステム100の実稼働前に実施した複数のワーク5の撮影及び画像処理結果に基づいて、計測パラメータを異なる条件へ変更した場合の複数のワーク5の認識結果を推定することができる。よって、計測パラメータとして想定され得る条件の全ての組み合わせについて事前計測を行うことなく、想定されるワーク5の種類毎に、実稼働前に一度だけ詳細な事前計測を行うだけで、センサ1による計測パラメータの最適化を行うことができる。また、ロボット10が変更になった場合でも、センサ1を搭載したあるロボット10について予め取得しておいた第1データ乃至第2データのパラメータセットを活用することにより、変更後の異なるロボットによる複数のワーク5の操作時における計測パラメータを、新たな事前計測を行うことなく最適化することができる。 According to the control device 4 of this application example, the robot system 100 equipped with the same, and the measurement parameter optimization method implemented therein, the control device 4 of the robot system 100 uses the basic first measurement parameter. Based on the results of photographing and image processing of the plurality of workpieces 5 performed before actual operation, it is possible to estimate the recognition results of the plurality of workpieces 5 when the measurement parameters are changed to different conditions. Therefore, without performing preliminary measurements for all possible combinations of conditions that can be assumed as measurement parameters, by simply performing detailed preliminary measurements once before actual operation for each type of workpiece 5 that is assumed, measurement by the sensor 1 can be easily performed. Parameter optimization can be performed. Furthermore, even if the robot 10 is changed, by utilizing the parameter set of the first data and second data acquired in advance for a certain robot 10 equipped with the sensor 1, it is possible to The measurement parameters when operating the workpiece 5 can be optimized without performing new preliminary measurements.

以上のことから、本開示によれば、種々のロボット10を備えるロボットシステム100により種々の複数のワーク5を操作するタスクにおけるセンサ1による計測パラメータの最適化を、従来に比して格段に簡略化(手間の軽減、時間短縮、ロボット非依存等)することができる。これにより、複数のワーク5の計測時におけるロバスト性、複数のワーク5の操作における作業効率、及び、全体のスループットを向上させることが可能となり、その結果、ユーザの利便性、及び、汎用性も格段に向上する。 From the above, according to the present disclosure, the optimization of measurement parameters by the sensor 1 in the task of manipulating a plurality of various workpieces 5 by the robot system 100 including various robots 10 is much simpler than in the past. (reduced effort, time, independence from robots, etc.). This makes it possible to improve robustness when measuring multiple works 5, work efficiency when operating multiple works 5, and overall throughput.As a result, user convenience and versatility are improved. Much improved.

§2 構成例
[ハードウェア構成]
次に、図3を用いて、本実施形態に係るロボットシステム100のハードウェア構成の一例について説明する。図3は、本実施形態に係る制御装置4を備えるロボットシステム100のハードウェアの構成の一例を模式的に示す平面図である。図3の例でも、ロボットシステム100は、図1及び図2に例示したセンサ1、ハンド2及びロボットアーム3を有するロボット10、並びに、制御装置4を備える。ここで、制御装置4は、制御演算部41、通信インタフェース(I/F)部42、記憶部43、入力部44、及び出力部45を含み、各部はバスライン46を介して相互に通信可能に接続され得る。
§2 Configuration example [Hardware configuration]
Next, an example of the hardware configuration of the robot system 100 according to this embodiment will be described using FIG. 3. FIG. 3 is a plan view schematically showing an example of the hardware configuration of the robot system 100 including the control device 4 according to the present embodiment. In the example of FIG. 3 as well, the robot system 100 includes the robot 10 having the sensor 1, hand 2, and robot arm 3 illustrated in FIGS. 1 and 2, and the control device 4. Here, the control device 4 includes a control calculation section 41, a communication interface (I/F) section 42, a storage section 43, an input section 44, and an output section 45, and each section can communicate with each other via a bus line 46. can be connected to.

制御演算部41は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御及び各種演算を行う。 The control calculation unit 41 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), etc., and controls each component and performs various calculations according to information processing.

通信I/F部42は、例えば、有線又は無線により他の構成要素である「部」及び「装置」と通信するための通信モジュールである。通信I/F部42が通信に用いる通信方式は任意であり、例えば、LAN(Local Area Network)やUSB(Universal Serial Bus)等が挙げられ、バスライン46と同等の適宜の通信線を適用することもできる。センサ1、ハンド2、及びロボットアーム3ともに、通信I/F部42を介して、制御演算部41等と通信可能に設けることが可能である。 The communication I/F section 42 is, for example, a communication module for communicating with other constituent elements such as "sections" and "devices" by wire or wirelessly. The communication method used by the communication I/F unit 42 for communication is arbitrary, and examples include LAN (Local Area Network) and USB (Universal Serial Bus), and an appropriate communication line equivalent to the bus line 46 is applied. You can also do that. The sensor 1, the hand 2, and the robot arm 3 can all be provided so as to be able to communicate with the control calculation section 41 and the like via the communication I/F section 42.

記憶部43は、例えばハード・ディスク・ドライブ(HDD)、ソリッド・ステート・ドライブ(SSD)等の補助記憶装置であり、制御演算部41で実行される各種プログラム(前記(1)乃至(7)に示す処理を含む各種処理を実行するための演算プログラム、並びに、センサ1、ハンド2、及びロボットアーム3のそれぞれの動作の制御処理を行うための制御プログラム等)、センサ1から出力される計測データ、計測パラメータ、認識パラメータ、及び種々の算出パラメータを含むデータベース、各種演算結果及び算出結果のデータ、複数のワーク5の各々の位置姿勢認識結果に関するデータ、各ワーク5のピッキング状況やピッキング記録に関するデータ、ワーク5の3次元モデルデータ、複数のワーク5を含み得る計測エリアに関するデータ、その計測エリアを計測するセンサ1の位置姿勢の設定データ等を記憶する。このとおり、記憶部43に記憶された演算プログラム及び制御プログラムが制御演算部41で実行されることにより、後述する機能構成例における各種処理機能が実現される。 The storage unit 43 is an auxiliary storage device such as a hard disk drive (HDD) or a solid state drive (SSD), and stores various programs ((1) to (7) above) executed by the control calculation unit 41. arithmetic programs for executing various processes including the processes shown in , control programs for controlling the respective operations of the sensor 1, hand 2, and robot arm 3), measurements output from the sensor 1; A database containing data, measurement parameters, recognition parameters, and various calculation parameters, data on various calculation results and calculation results, data on the position and orientation recognition results of each of the plurality of works 5, and information on the picking status and picking record of each work 5. data, three-dimensional model data of the workpiece 5, data regarding a measurement area that may include a plurality of workpieces 5, setting data for the position and orientation of the sensor 1 that measures the measurement area, and the like are stored. As described above, by executing the calculation program and control program stored in the storage unit 43 in the control calculation unit 41, various processing functions in the functional configuration example described later are realized.

入力部44は、ロボットシステム100を利用するユーザからの各種入力操作を受け付けるためのインタフェースデバイスであり、例えば、マウス、キーボード、タッチパネル、音声マイク等で実現し得る。出力部45は、ロボットシステム100を利用するユーザ等へ、各種情報を、その表示、音声出力、印刷出力等により報知するためのインタフェースデバイスであり、例えば、ディスプレイ、スピーカ、プリンタ等で実現し得る。 The input unit 44 is an interface device for receiving various input operations from a user using the robot system 100, and can be realized by, for example, a mouse, a keyboard, a touch panel, an audio microphone, or the like. The output unit 45 is an interface device for notifying users of the robot system 100 of various types of information through display, audio output, print output, etc., and can be realized by, for example, a display, a speaker, a printer, etc. .

[機能構成]
次に、図4を用いて、本実施形態に係る物体認識処理装置を備えるロボットシステム100の機能構成の一例を説明する。図4は、本実施形態に係る制御装置4を備えるロボットシステム100の機能構成の一例を模式的に示す平面図である。
[Functional configuration]
Next, an example of the functional configuration of the robot system 100 including the object recognition processing device according to this embodiment will be described using FIG. 4. FIG. 4 is a plan view schematically showing an example of the functional configuration of the robot system 100 including the control device 4 according to the present embodiment.

図4に示すロボットシステム100の制御演算部41は、記憶部43に記憶された各種プログラム(制御プログラム及び演算プログラム等)をRAMに展開する。そして、制御演算部41は、RAMに展開された各種プログラムをCPUにより解釈及び実行して、各構成要素を制御する。これにより、本実施形態に係るロボットシステム100は、前述の如く、収納容器6内にばら積みされた複数のワーク5を取り出して他の収納容器7等へ移載し、整列させて配置する操作(図2の移動経路P1)、及び/又は、あるワーク5を移載し終えたロボット10を、次のワーク5を取り出すために、収納容器6側へ復帰させる操作(図2の移動経路P2)を行うことができる。また、そのようなロボットシステム100の実稼働に先立って、センサ1により複数のワーク5を計測するときの計測パラメータの最適化を実行するために、以下に示す各ステップの処理を実行可能な機能部として、センサ制御部401、ロボット制御部402、撮像画像取得部410、第1データ取得部411、第2データ取得部412、第3データ取得部413、最適化パラメータ決定部414を備える構成を、制御演算部41によって実現し得る。 The control calculation unit 41 of the robot system 100 shown in FIG. 4 loads various programs (control programs, calculation programs, etc.) stored in the storage unit 43 into the RAM. The control calculation unit 41 then uses the CPU to interpret and execute various programs loaded in the RAM, thereby controlling each component. As a result, the robot system 100 according to the present embodiment performs the operation of taking out the plurality of works 5 stacked in bulk in the storage container 6, transferring them to another storage container 7, etc., and aligning and arranging them, as described above. Movement path P1 in FIG. 2), and/or operation of returning the robot 10 that has finished transferring a certain workpiece 5 to the storage container 6 side in order to take out the next workpiece 5 (movement path P2 in FIG. 2) It can be performed. In addition, in order to optimize measurement parameters when measuring a plurality of workpieces 5 with the sensor 1 prior to actual operation of such a robot system 100, a function that can execute the processing of each step shown below is provided. The configuration includes a sensor control section 401, a robot control section 402, a captured image acquisition section 410, a first data acquisition section 411, a second data acquisition section 412, a third data acquisition section 413, and an optimization parameter determination section 414. , can be realized by the control calculation section 41.

なお、本実施形態では、ロボットシステム100に備わる制御装置4で実現される各機能が汎用のCPUによって実現される例について説明したが、以上の機能の一部又は全部が、1つ又は複数の専用のプロセッサによって実現されてもよい。また、ロボットシステム100に備わる制御装置4の機能構成は、実施形態や構成例に応じて、適宜、機能の省略、置換、及び追加が行われてももちろんよい。また、「制御装置」とは、一般的な情報処理装置(例えば、コンピュータ、ワークステーション等)と解することができる。 In addition, in this embodiment, an example has been described in which each function realized by the control device 4 provided in the robot system 100 is realized by a general-purpose CPU. It may also be realized by a dedicated processor. Further, the functional configuration of the control device 4 included in the robot system 100 may be omitted, replaced, or added as appropriate depending on the embodiment or configuration example. Furthermore, a "control device" can be understood as a general information processing device (for example, a computer, a workstation, etc.).

§3 動作例
次に、図5を用いて、ロボットシステム100の動作の一例として、ロボットシステム100の実稼働に先立って、センサ1により複数のワーク5を計測するときの計測パラメータの最適化を実行する手順の一例について説明する。すなわち、図5は、本動作例に係る制御装置4を備えるロボットシステム100における処理手順の一例を示すフローチャートであり、ロボットシステム100の計測パラメータの最適化方法における処理手順の一例を示すフローチャートでもある。なお、以下で説明する処理手順は例示に過ぎず、各処理は、本開示の技術思想の範囲内において可能な限り変更されてよい。また、以下で説明する処理手順は、実施形態や各構成例に応じて、適宜、ステップの省略、置換、及び追加が可能である。
§3 Operation example Next, as an example of the operation of the robot system 100, using FIG. An example of the procedure to be executed will be explained. That is, FIG. 5 is a flowchart showing an example of the processing procedure in the robot system 100 including the control device 4 according to the present operation example, and is also a flowchart showing an example of the processing procedure in the method for optimizing measurement parameters of the robot system 100. . Note that the processing procedures described below are merely examples, and each process may be modified as much as possible within the scope of the technical idea of the present disclosure. Further, in the processing procedure described below, steps can be omitted, replaced, and added as appropriate depending on the embodiment and each configuration example.

まず、ロボットシステム100のユーザは、ロボットシステム100を起動し、各種プログラム(演算プログラム、制御プログラム、計測パラメータの最適化等)を実行可能な状態とする。それから、制御装置4における制御演算部41(少なくとも1つのプロセッサ)は、以下の処理手順に従って、センサ1及びロボット10のそれぞれの動作を制御し、且つ、制御装置4における各機能部による演算処理を行う。 First, the user of the robot system 100 starts the robot system 100 and puts it into a state where various programs (calculation programs, control programs, optimization of measurement parameters, etc.) can be executed. Then, the control calculation unit 41 (at least one processor) in the control device 4 controls the respective operations of the sensor 1 and the robot 10 according to the following processing procedure, and also controls the calculation processing by each functional unit in the control device 4. conduct.

(ステップS501:第1ステップ)
ステップS501では、まず、第1計測パラメータとして、ロボット10(のロボットアーム3)によるセンサ1の移動経路P0、並びに、移動の速度V、時間間隔T、及び合計移動角度θを設定する。ここで、図6は、ステップS501におけるセンサ1の移動状態の概念を模式的に示す平面図である。同図に示す如く、移動経路P0は、例えば、容器6内にばら積みされた複数のワーク5のほぼ体積中心である座標G0を中心とする弧状を成すように設定され得る。なお、センサ1の移動の軌跡は、弧状(一定の曲率を有する形状)に限定されず、例えば、直線状、非直線状、曲率が変化する形状等であってもよく、また、座標G0を変動させてもよい。さらに、ここで実験的に用いる複数のワーク5は、ロボットシステム100の実稼働時の操作対象と同じ種類のものを選択する。
(Step S501: 1st step)
In step S501, first, the movement path P0 of the sensor 1 by the robot 10 (the robot arm 3 thereof), the movement speed V, the time interval T, and the total movement angle θ are set as first measurement parameters. Here, FIG. 6 is a plan view schematically showing the concept of the moving state of the sensor 1 in step S501. As shown in the figure, the moving path P0 can be set, for example, in an arc shape centered on the coordinate G0, which is approximately the center of volume of the plurality of works 5 stacked in bulk in the container 6. Note that the locus of movement of the sensor 1 is not limited to an arc shape (a shape with a constant curvature), and may be, for example, a linear shape, a non-linear shape, a shape with changing curvature, etc. It may be varied. Further, as the plurality of works 5 used experimentally here, the same types as the objects to be operated during actual operation of the robot system 100 are selected.

速度Vは、特に制限されず、例えば、センサ1の移動速度として実現し得る速度範囲における任意の値を設定することができ、より遅い速度であると、より多くの詳細な撮影画像を取得することができる観点から好適である。さらに、時間間隔Tは、特に制限されず、例えば、センサ1の撮影間隔として実現し得る間隔範囲における任意の値を設定することができ、特に最小時間間隔であると、より多くの詳細な撮影画像を取得することができる観点から好適である。また、合計移動角度θは、特に制限されず、例えば、センサ1の可動範囲の最大距離に対応する角度を設定することができる。 The speed V is not particularly limited, and, for example, can be set to any value within the speed range that can be realized as the moving speed of the sensor 1, and the slower the speed, the more detailed captured images will be obtained. This is suitable from the standpoint of being able to Further, the time interval T is not particularly limited, and can be set to any value within the interval range that can be realized as the imaging interval of the sensor 1, and in particular, if it is the minimum time interval, more detailed imaging can be performed. This is suitable from the viewpoint of being able to acquire images. Further, the total movement angle θ is not particularly limited, and may be set to an angle corresponding to the maximum distance of the movable range of the sensor 1, for example.

これらの速度V、時間間隔T、及び合計移動角度θから、第1計測パラメータによる複数のワーク5の撮影における撮影枚数N=θ/V/T、及び、毎回移動角度(時間間隔T毎の移動角度)μ=V×Tが求まり、ロボット制御部402の指令により、この条件でセンサ1を弧状に移動経路P0に沿って移動させながら、センサ制御部401の指令により、容器6内の複数のワーク5を複数回撮影し、複数枚数Nの撮影画像を取得する。すなわち、本ステップでは、図6に示すように、ばら積みされた複数のワーク5に対して異なる仰角で対向したセンサ1(センサ1の位置P1,P2,…,PN-1,PN、隣り合うセンサ位置の角度が毎回移動角度μとなる。)によって、N回の撮影が行われ、複数枚数Nの撮影画像が取得される。 From these speed V, time interval T, and total movement angle θ, the number of shots N=θ/V/T in shooting the plurality of workpieces 5 using the first measurement parameter, and the movement angle each time (movement at each time interval T). Angle) μ=V×T is determined, and while the sensor 1 is moved in an arc along the movement path P0 under this condition, the sensor control unit 401 commands the robot control unit 401 to move the sensor 1 to The workpiece 5 is photographed multiple times to obtain a plurality of N photographed images. That is, in this step, as shown in FIG. (The angle of the position is the movement angle μ each time.) Accordingly, N images are taken, and a plurality of N photographed images are obtained.

(ステップS502:第2ステップ(1))
ステップS502では、第1データ取得部411により、得られた複数枚数Nの撮影画像から、順次、異なる枚数iの撮影画像を抽出して画像処理を行い、ワーク5の認識の正確さを示す評価値Zi(例えば、認識されたワーク5の数)を順次取得する。ここで、枚数i=1,2,…,N-1,N(すなわち、iは1~Nの整数)であり、具体的には、例えば、1枚目の撮影画像(センサ1の初期の位置G1)で画像処理を行い(i=1)、次に、センサ位置が互いに隣接する1枚目と2枚目の撮影画像(センサ1の初期の位置G1及び次の位置G2)を用いて画像処理を行う(i=2)。そして、このような処理をi=Nまで順次繰り返し実行し(センサ1の位置Gi乃至位置GN)、各撮影枚数iについて得られた評価値Ziを、第1計測パラメータに関連付け、第1データとして記憶部43に記憶する。
(Step S502: Second step (1))
In step S502, the first data acquisition unit 411 sequentially extracts a different number i of captured images from the obtained plural number N of captured images, performs image processing, and evaluates the accuracy of recognition of the workpiece 5. Values Zi (for example, the number of recognized works 5) are acquired one after another. Here, the number of images i = 1, 2, ..., N-1, N (that is, i is an integer from 1 to N), and specifically, for example, the first captured image (initial image of sensor 1 Image processing is performed at position G1) (i=1), and then using the first and second captured images whose sensor positions are adjacent to each other (initial position G1 and next position G2 of sensor 1). Perform image processing (i=2). Then, such processing is sequentially and repeatedly executed until i=N (position Gi to position GN of sensor 1), and the evaluation value Zi obtained for each number of captured images i is associated with the first measurement parameter and used as the first data. It is stored in the storage unit 43.

(ステップS503:第2ステップ(2))
ステップS503では、第1データ取得部412により、まず、第2計測パラメータとして、ロボット10(のロボットアーム3)によるセンサ1の移動経路P0、並びに、移動の速度V、時間間隔T×j(j:2以上の整数)、及び合計移動角度θを設定する。すなわち、第2計測パラメータでは、センサ1による計測の時間間隔を、第1計測パラメータにおける時間間隔の整数倍となるように種々変化させる。但し、ステップS503では、その第2計測パラメータで実際の計測を行うのではなく、ステップS501で得られた複数枚数Nの撮影画像を用いて、その第2計測パラメータで複数のワーク5を撮影し、且つ、ステップS502における画像処理と同等の処理を行ったと仮定した場合の、各撮影枚数iにおけるワーク5の認識の正確さを示す評価値Zi(例えば、認識されたワーク5の数)を推定する。そして、各jのときの各撮影枚数iについて得られた評価値Ziを、第2計測パラメータに関連付け、これを第1データとして記憶部43に記憶する。
(Step S503: Second step (2))
In step S503, the first data acquisition unit 412 first sets the movement path P0 of the sensor 1 by the robot 10 (robot arm 3), the movement speed V, and the time interval T×j(j : an integer of 2 or more) and the total movement angle θ. That is, in the second measurement parameter, the time interval of measurement by the sensor 1 is varied in various ways so that it becomes an integral multiple of the time interval in the first measurement parameter. However, in step S503, the plurality of workpieces 5 are photographed with the second measurement parameter using the plural number N of photographed images obtained in step S501, rather than performing actual measurement with the second measurement parameter. , and estimate the evaluation value Zi (for example, the number of recognized works 5) indicating the accuracy of recognition of the works 5 for each number of photographed images i, assuming that processing equivalent to the image processing in step S502 is performed. do. Then, the evaluation value Zi obtained for each number of photographed images i at each time j is associated with the second measurement parameter and stored in the storage unit 43 as first data.

なお、ステップS502の処理は、ステップS503において、j=1としたときの処理と同じであるから、説明の便宜上、ステップS502,503で得られるデータを「第1のデータ」と呼ぶ。但し、第1のデータを取得する上で、ステップS502,503の両方のステップは、必ずしも実行する必要はなく、何れか一方のステップを実行すればよい。また、ステップS502,503の両方のステップが実行される場合は、何れか一方のステップを先に実行し、他方のステップを後に実行すればよく、その実行順は特定に限定されない。 Note that the processing in step S502 is the same as the processing when j=1 in step S503, so for convenience of explanation, the data obtained in steps S502 and 503 will be referred to as "first data." However, in acquiring the first data, it is not necessary to execute both steps S502 and S503, and it is sufficient to execute either one of the steps. Furthermore, when both steps S502 and S503 are executed, one of the steps may be executed first, and the other step may be executed later, and the order of execution is not particularly limited.

また、上述の説明では、ステップS503において、速度Vを一定値に固定し、時間間隔Tを変えることで、撮影画像が均等に間引かれた画像セットの様々なバリエーションを生成する例を示したが、時間間隔Tを一定値に固定し、速度Vを変えることで、撮影画像が均等に間引かれた画像セットの様々なバリエーションを生成してもよい。 Furthermore, in the above description, an example was shown in which various variations of the image set in which the captured images are evenly thinned out are generated by fixing the speed V to a constant value and changing the time interval T in step S503. However, by fixing the time interval T to a constant value and changing the speed V, various variations of the image set in which the captured images are evenly thinned out may be generated.

ここで、図7は、ステップS502(第2ステップ(1))における第1データ、及び、ステップS503(第2ステップ(2))における第1データの一例を表形式で示す図である。図7(A)に示すデータセットは、ステップS502で取得された第1データに相当し、この第1データは、計測時の時間間隔T=0.01(sec)、撮影枚数N=120、及び、毎回移動角度μ(=θ/(120-1))の例であり、評価値Zi(i=1~121)のデータが取得される。すなわち、ここでは、合計移動角度θが119分割され、120回の撮影が行われる。 Here, FIG. 7 is a diagram showing an example of the first data in step S502 (second step (1)) and the first data in step S503 (second step (2)) in a table format. The data set shown in FIG. 7(A) corresponds to the first data acquired in step S502, and this first data includes the time interval T at the time of measurement = 0.01 (sec), the number of captured images N = 120, This is an example of the movement angle μ (=θ/(120-1)) each time, and data of the evaluation value Zi (i=1 to 121) is acquired. That is, here, the total movement angle θ is divided into 119, and 120 images are taken.

また、図7(B)乃至(D)に示すデータセットは、ステップS503で取得された第1データに相当する。図7(B)に示すデータセットは、j=2の例であり、計測時の時間間隔T×2=0.02(sec)、撮影枚数N=60、及び、毎回移動角度μ×2となる。よって、ステップS502で取得された第1データにおける撮影枚数i=1,3,5,…,117,119のときの評価値Ziのデータを、j=2のときの各撮影枚数iの評価値Zi(i=1~60)のデータとして、それぞれ割り当てることができる。 Furthermore, the data sets shown in FIGS. 7(B) to (D) correspond to the first data acquired in step S503. The data set shown in FIG. 7(B) is an example where j = 2, the time interval at the time of measurement T x 2 = 0.02 (sec), the number of shots N = 60, and the movement angle μ x 2 each time. Become. Therefore, the data of the evaluation value Zi when the number of photographed images i = 1, 3, 5, ..., 117, 119 in the first data acquired in step S502 is used as the evaluation value of each number of photographed images i when j = 2. They can be assigned as data of Zi (i=1 to 60).

また、図7(C)に示すデータセットは、j=4の例であり、計測時の時間間隔T×4=0.04(sec)、撮影枚数N=31、及び、毎回移動角度μ×4となる。よって、ステップS502で取得された第1データにおける撮影枚数i=1,5,9,…,113,117のときの評価値Ziのデータを、j=4のときの各撮影枚数iの評価値Zi(i=1~30)のデータとして割り当てることができる。そして、図7(D)は、「j」について、一般化した場合のデータセットを示す。 The data set shown in FIG. 7(C) is an example where j=4, the time interval at the time of measurement T x 4 = 0.04 (sec), the number of captured images N = 31, and the movement angle μ x each time. It becomes 4. Therefore, the data of the evaluation value Zi when the number of shots i = 1, 5, 9, ..., 113, 117 in the first data acquired in step S502 is used as the evaluation value of each number of shots i when j = 4. It can be assigned as data of Zi (i=1 to 30). FIG. 7(D) shows a generalized data set for "j".

(ステップS504:第3ステップ)
ステップS504では、第2データ取得部413により、まず、第3計測パラメータとして、ロボット10(のロボットアーム3)によるセンサ1の移動経路P0、並びに、移動の速度V×k(k:2以上の整数)、時間間隔T×j/k、及び合計移動角度θを設定する。すなわち、第3計測パラメータにおけるセンサ1の速度を、第1計測パラメータにおけるセンサ1の速度のk倍に設定し、第3計測パラメータにおけるセンサ1による計測の時間間隔を、第1計測パラメータにおけるセンサ1による計測の時間間隔の(1/k)倍に設定する。但し、ステップS504でも、その第3計測パラメータで実際の計測を行うのではなく、基本データである第1データを用いて、その第2計測パラメータで複数のワーク5を撮影し、且つ、ステップS502における画像処理と同等の処理を行ったと仮定した場合の、各撮影枚数iにおけるワーク5の認識の正確さを示す評価値Zi(例えば、認識されたワーク5の数)を推定する。そして、各j及び各kのときの各撮影枚数iについて得られた評価値Ziを、第3計測パラメータに関連付け、第2データとして記憶部43に記憶する。
(Step S504: Third step)
In step S504, the second data acquisition unit 413 first sets the movement path P0 of the sensor 1 by the robot 10 (robot arm 3) and the movement speed V×k (k: 2 or more) as the third measurement parameters. (integer), time interval T×j/k, and total movement angle θ. That is, the speed of sensor 1 in the third measurement parameter is set to k times the speed of sensor 1 in the first measurement parameter, and the time interval of measurement by sensor 1 in the third measurement parameter is set to k times the speed of sensor 1 in the first measurement parameter. The measurement time interval is set to (1/k) times the measurement time interval. However, in step S504 as well, the plurality of workpieces 5 are photographed with the second measurement parameter using the first data, which is the basic data, instead of performing actual measurement using the third measurement parameter, and step S502 An evaluation value Zi (for example, the number of recognized workpieces 5) indicating the accuracy of recognition of the workpieces 5 for each number of photographed images i is estimated, assuming that processing equivalent to the image processing in is performed. Then, the evaluation value Zi obtained for each number of photographed images i for each j and each k is associated with the third measurement parameter and stored in the storage unit 43 as second data.

ここで、図8乃至図10は、ステップS504(第3ステップ)における第2データの一例を表形式で示す図である。 Here, FIGS. 8 to 10 are diagrams showing examples of the second data in step S504 (third step) in a table format.

図8(A)乃至(D)に示すデータセットは、センサ1の速度Vをk=2倍した場合の図7(A)乃至(D)に相当するものである。図8(A)に示すデータセットは、k=2及びj=1の例であり、計測時の時間間隔T×1=0.01(sec)、撮影枚数N=60、及び、毎回移動角度μ×1×2となる。よって、第1データにおける撮影枚数i=1,3,5,…,117,119のときの評価値Ziのデータを、k=2及びj=1のときの各撮影枚数iの評価値Zi(i=1~60)のデータとして、それぞれ割り当てることができる。 The data sets shown in FIGS. 8A to 8D correspond to FIGS. 7A to 7D when the speed V of the sensor 1 is multiplied by k=2. The data set shown in FIG. 8(A) is an example where k = 2 and j = 1, the time interval at the time of measurement T x 1 = 0.01 (sec), the number of shots N = 60, and the movement angle each time. μ×1×2. Therefore, the data of the evaluation value Zi when the number of shots i = 1, 3, 5, ..., 117, 119 in the first data is converted into the evaluation value Zi ( i=1 to 60).

図8(B)に示すデータセットは、k=2及びj=2の例であり、計測時の時間間隔T×2=0.02(sec)、撮影枚数N=30、及び、毎回移動角度μ×2×2となる。よって、第1データにおける撮影枚数i=1,5,9,…,113,117のときの評価値Ziのデータを、k=2及びj=2のときの各撮影枚数iの評価値Zi(i=1~30)のデータとして、それぞれ割り当てることができる。 The data set shown in FIG. 8(B) is an example of k = 2 and j = 2, the time interval at the time of measurement T x 2 = 0.02 (sec), the number of shots N = 30, and the movement angle each time. μ×2×2. Therefore, the data of the evaluation value Zi when the number of shots i = 1, 5, 9, ..., 113, 117 in the first data is converted into the evaluation value Zi ( i=1 to 30).

図8(C)に示すデータセットは、k=2及びj=4の例であり、計測時の時間間隔T×4=0.04(sec)、撮影枚数N=15、及び、毎回移動角度μ×4×2となる。よって、第1データにおける撮影枚数i=1,9,17,…,105,113のときの評価値Ziのデータを、k=2及びj=4のときの各撮影枚数iの評価値Zi(i=1~15)のデータとして、それぞれ割り当てることができる。そして、図8(D)は、「k=2」及び「j」について、一般化した場合のデータセットを示す。 The data set shown in FIG. 8(C) is an example where k = 2 and j = 4, the time interval at the time of measurement T x 4 = 0.04 (sec), the number of shots N = 15, and the movement angle each time. It becomes μ×4×2. Therefore, the data of the evaluation value Zi when the number of shots i = 1, 9, 17, ..., 105, 113 in the first data is converted into the evaluation value Zi ( i=1 to 15). FIG. 8(D) shows a generalized data set for "k=2" and "j".

また、図9(A)乃至(D)に示すデータセットは、センサ1の速度Vをk=3倍した場合の図7(A)乃至(D)に相当するものである。図9(A)に示すデータセットは、k=3及びj=1の例であり、計測時の時間間隔T×1=0.01(sec)、撮影枚数N=40、及び、毎回移動角度μ×1×3となる。よって、第1データにおける撮影枚数i=1,4,7,…,115,118のときの評価値Ziのデータを、k=3及びj=1のときの各撮影枚数iの評価値Zi(i=1~40)のデータとして、それぞれ割り当てることができる。 Further, the data sets shown in FIGS. 9A to 9D correspond to FIGS. 7A to 7D when the speed V of the sensor 1 is multiplied by k=3. The data set shown in FIG. 9(A) is an example where k=3 and j=1, the time interval at the time of measurement T x 1 = 0.01 (sec), the number of shots N = 40, and the movement angle each time. μ×1×3. Therefore, the data of the evaluation value Zi when the number of shots i = 1, 4, 7, ..., 115, 118 in the first data is converted into the evaluation value Zi ( i=1 to 40).

図9(B)に示すデータセットは、k=3及びj=2の例であり、計測時の時間間隔T×2=0.02(sec)、撮影枚数N=20、及び、毎回移動角度μ×2×3となる。よって、第1データにおける撮影枚数i=1,7,13,…,115,121のときの評価値Ziのデータを、k=3及びj=2のときの各撮影枚数iの評価値Zi(i=1~20)のデータとして、それぞれ割り当てることができる。 The data set shown in FIG. 9(B) is an example where k=3 and j=2, the time interval at the time of measurement T x 2 = 0.02 (sec), the number of shots N = 20, and the movement angle each time. It becomes μ×2×3. Therefore, the data of the evaluation value Zi when the number of shots i = 1, 7, 13, ..., 115, 121 in the first data is converted into the evaluation value Zi ( i=1 to 20).

図9(C)に示すデータセットは、k=3及びj=4の例であり、計測時の時間間隔T×4=0.04(sec)、撮影枚数N=10、及び、毎回移動角度μ×4×3となる。よって、第1データにおける撮影枚数i=1,13,25,…,97,109のときの評価値Ziのデータを、k=3及びj=4のときの各撮影枚数iの評価値Zi(i=1~10)のデータとして、それぞれ割り当てることができる。そして、図9(D)は、「k=3」及び「j」について、一般化した場合のデータセットを示す。さらに、図10(A)乃至(D)に示すデータセットは、「k」について、一般化した場合のデータセットを示し、特に、図10(D)は、「k」及び「j」の両方について、一般化した場合のデータセットを示す。 The data set shown in FIG. 9(C) is an example where k = 3 and j = 4, the time interval at the time of measurement T x 4 = 0.04 (sec), the number of shots N = 10, and the movement angle each time. It becomes μ×4×3. Therefore, the data of the evaluation value Zi when the number of shots i = 1, 13, 25, ..., 97, 109 in the first data is converted into the evaluation value Zi ( i=1 to 10). FIG. 9(D) shows a generalized data set for "k=3" and "j". Furthermore, the data sets shown in FIGS. 10(A) to 10(D) show generalized data sets for "k", and in particular, FIG. 10(D) shows data sets for both "k" and "j". The following is a generalized data set for .

(ステップS505:第4ステップ)
ステップS505では、最適化パラメータ決定部414により、得られた第2データのなかから、所定の判定基準を満たすデータの計測パラメータを少なくとも1つ選定し、それらのなかから、例えばユーザが所望の計測パラメータを、ロボットシステム100の実稼働時における最適化計測パラメータとして決定する。ここで、図11は、あるロボットシステム100を用い、ばら積みした20個のワーク5としての六角ボルトについて、センサ1を用いて実験的にステップS501乃至S504を実行して得た第2データの具体的な一例を表形式で示す図である。なお、図示においては、センサ1の移動の速度Vを、そのロボットシステム100で実現し得る最大速度に対する割合(%)で表示する。なお、同図における「所要時間H」は、厳密には、時間間隔Tと撮影枚数Nのみに依存するのではなく、センサ1で撮影した画像の制御演算部41(コンピュータ)への転送時間、及び、複数枚の3D点群データの合成時間等を含めた合計時間で表されるが、ここでは、説明の便宜のため、所要時間H=時間間隔T×撮影枚数iとして計算した。さらに、同図には、評価値Ziとしてのワーク5の認識数が17個以上のもののみを図示した。
(Step S505: 4th step)
In step S505, the optimization parameter determination unit 414 selects at least one measurement parameter of data that satisfies a predetermined criterion from the obtained second data, and selects from among them, for example, a measurement parameter that the user wants to measure. The parameters are determined as optimized measurement parameters during actual operation of the robot system 100. Here, FIG. 11 shows the specifics of second data obtained by experimentally executing steps S501 to S504 using the sensor 1 for hexagonal bolts as 20 pieces of workpieces 5 stacked in bulk using a certain robot system 100. FIG. 2 is a diagram showing an example in a table format. In the illustration, the speed V of movement of the sensor 1 is expressed as a percentage (%) of the maximum speed that can be realized by the robot system 100. Strictly speaking, the "required time H" in the figure does not depend only on the time interval T and the number of captured images N, but on the transfer time of the images captured by the sensor 1 to the control calculation unit 41 (computer), Although it is expressed as a total time including the time for synthesizing multiple pieces of 3D point cloud data, etc., here, for convenience of explanation, it is calculated as the required time H=time interval T×number of captured images i. Further, in the same figure, only those workpieces 5 whose number of recognized pieces as evaluation value Zi is 17 or more are shown.

また、図12は、図11に示すデータセットの一例について、センサ1による20個のワーク5の撮影画像に、認識結果(輪郭線)を重ねて表示した平面図である。例えば、図12(A)は、速度V=70%、間間間隔T=0.05(sec)、撮影枚数i=5、及び、評価値Ziとしてのワーク5の認識数=19個の結果を示し、図の下方に記載した「70%_0.05_5_19」が、それらの条件と結果を示す。なお、図12(B)乃至(D)についても同様である。また、図12(C)では、図示において輪郭線が認識されたワーク5の数が17個であるが、認識結果の信頼度を調整することにより、18個の認識が可能と判断されたので、最終的な評価値Ziとしてのワーク5の認識数=18個とした。逆に、図12(D)では、図示において輪郭線が認識されたワーク5の数が19個であるが、認識結果の信頼度を調整した結果、18個の認識が可能と判断されたので、最終的な評価値Ziとしてのワーク5の認識数=18個とした。 Further, FIG. 12 is a plan view of an example of the data set shown in FIG. 11, in which recognition results (contours) are displayed superimposed on images taken by the sensor 1 of 20 workpieces 5. For example, FIG. 12(A) shows the results when the speed V = 70%, the interval T = 0.05 (sec), the number of captured images i = 5, and the number of recognized workpieces 5 as evaluation value Zi = 19. "70%_0.05_5_19" written at the bottom of the figure indicates those conditions and results. Note that the same applies to FIGS. 12(B) to 12(D). In addition, in FIG. 12(C), the number of workpieces 5 whose outlines have been recognized is 17, but by adjusting the reliability of the recognition results, it was determined that 18 could be recognized. , the number of recognized works 5 as the final evaluation value Zi = 18. On the other hand, in FIG. 12(D), the number of workpieces 5 whose outlines have been recognized is 19, but as a result of adjusting the reliability of the recognition results, it was determined that 18 could be recognized. , the number of recognized works 5 as the final evaluation value Zi = 18.

ステップS505では、所定の判定基準を、例えば、ワーク5の評価値Ziが所定の評価値ZB以上であることとし、図11では、評価値Ziが大きい順にデータをソートし、且つ、同じ評価値Ziのデータは、所要時間Hが小さい順にソートした。例えば、判定用の所定の評価値ZBとしての認識数=19個(認識率=19個/20個=95%)と設定した場合には、図11において評価値Zi=19個の複数のデータセットに対応する計測パラメータのなかから、例えばユーザが所望のものを適宜選択して、ロボットシステム100の実稼働時の最適化計測パラメータとして決定することができる。これは、判定用の所定の評価値ZBとしての認識数=17個や18個の場合も同様である。 In step S505, the predetermined criterion is, for example, that the evaluation value Zi of the workpiece 5 is greater than or equal to the predetermined evaluation value ZB, and in FIG. The data of Zi was sorted in descending order of required time H. For example, if the number of recognitions as the predetermined evaluation value ZB for determination is set to 19 (recognition rate = 19/20 = 95%), in FIG. For example, a user can appropriately select a desired measurement parameter from among the measurement parameters corresponding to the set and determine it as an optimized measurement parameter during actual operation of the robot system 100. This also applies to the case where the number of recognitions as the predetermined evaluation value ZB for determination is 17 or 18.

(ステップS506)
ステップS506では、ステップS505で決定した最適化計測パラメータを用いて、ロボットシステム100を実稼働させ、複数のワーク5の操作処理を実施する。
(Step S506)
In step S506, the robot system 100 is put into actual operation using the optimized measurement parameters determined in step S505, and a plurality of workpieces 5 are operated.

§4 作用・効果
以上のとおり、本実施形態に係るロボットシステム100の制御装置4、及び、それを用いた計測パラメータの最適化方法の一例によれば、ロボットシステム100の実稼働前に予め取得した基本データである第1データに基づいて、計測パラメータを異なる条件(第2計測パラメータ、第3計測パラメータ)へ変更した場合に、その変更後のパラメータによる実際の計測を行うことなく、複数のワーク5の認識結果を推定することができる。よって、計測パラメータとして想定され得る条件の全ての組み合わせについて事前計測を行う必要がなくなり、想定されるワーク5の種類毎に、実稼働前に一度だけ詳細な事前計測を行うだけで、センサ1による計測パラメータの最適化を行うことができる。
§4 Actions and Effects As described above, according to the control device 4 of the robot system 100 according to the present embodiment and an example of the method for optimizing measurement parameters using the control device 4, the measurement parameters are acquired in advance before the actual operation of the robot system 100. If the measurement parameters are changed to different conditions (second measurement parameters, third measurement parameters) based on the first data, which is the basic data that has been The recognition result of the workpiece 5 can be estimated. Therefore, it is no longer necessary to perform preliminary measurements for all possible combinations of conditions that can be assumed as measurement parameters. Measurement parameters can be optimized.

また、ロボット10が変更になった場合でも、センサ1を搭載したあるロボット10について予め取得しておいた第1データ乃至第2データのパラメータセット中に、変更後のロボット10の特性(機構パラメータ)に応じた条件(具体的には、センサ1の移動速度Vと時間間隔T)が含まれていれば、その条件に対応する第1データ乃至第2データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、変更後の異なるロボットによる複数のワーク5の操作時における最適化計測パラメータとして決定することができる。 Furthermore, even if the robot 10 is changed, the characteristics (mechanical parameters ) (specifically, the moving speed V and time interval T of the sensor 1), a predetermined criterion is selected from the first data and second data corresponding to the condition. It is possible to select measurement parameters whose data satisfies the requirements and determine them as optimized measurement parameters when operating a plurality of workpieces 5 by different robots after the change.

或いは、第1データ乃至第2データのパラメータセット中に、変更後のロボット10の特性に応じた条件が含まれていれば、その条件における結果を、変更後のロボット10についての基本データ(第1データ)として用いることができる。そして、その基本データを使用して、上記の第2ステップ乃至第4ステップと同様の処理を実行することにより、変更後のロボット10を含むロボットシステム100について、新たな事前計測を行うことなく、計測パラメータの最適化を行うことができる。 Alternatively, if the parameter set of the first data to the second data includes a condition according to the characteristics of the robot 10 after the change, the results under that condition are used as the basic data (the first data) about the robot 10 after the change. 1 data). Then, by using the basic data and executing the same processes as the second to fourth steps above, the robot system 100 including the robot 10 after the change can be measured without performing new preliminary measurements. Measurement parameters can be optimized.

以上のことから、本開示によれば、種々のロボット10を備えるロボットシステム100により種々の複数のワーク5を操作するタスクにおけるセンサ1による計測パラメータの最適化を、従来に比して格段に簡略化(手間の軽減、時間短縮、ロボット非依存等)することができる。これにより、複数のワーク5の計測時におけるロバスト性、複数のワーク5の操作における作業効率、及び、全体のスループットを向上させることが可能となり、その結果、ユーザの利便性、及び、汎用性も格段に向上させることができる。また、上記ステップS505のとおり、所定の認識数ZBをより大きく設定することにより、ロバスト性を更に向上させることができ、計測精度の向上を優先する場合に有利となる。 From the above, according to the present disclosure, the optimization of measurement parameters by the sensor 1 in the task of manipulating a plurality of various workpieces 5 by the robot system 100 including various robots 10 is much simpler than in the past. (reduced effort, time, independence from robots, etc.). This makes it possible to improve robustness when measuring multiple works 5, work efficiency when operating multiple works 5, and overall throughput.As a result, user convenience and versatility are improved. It can be improved significantly. Further, as in step S505 above, by setting the predetermined recognition number ZB larger, the robustness can be further improved, which is advantageous when giving priority to improving measurement accuracy.

§5 変形例
以上、本開示の一例としての実施形態について詳細に説明してきたが、前述した説明はあらゆる点において本開示の一例を示すに過ぎず、本開示の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもなく、例えば、以下に示すような変更が可能である。なお、以下の説明においては、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、説明を適宜省略した。また、上記実施形態及び以下の各変形例は、適宜組み合わせて構成することが可能である。
§5 Modifications Although the exemplary embodiment of the present disclosure has been described in detail above, the above description merely shows an example of the present disclosure in all respects, and various modifications may be made without departing from the scope of the present disclosure. It goes without saying that improvements and modifications can be made, for example, the following changes are possible. In the following description, the same reference numerals are used for the same components as in the above embodiment, and the description of the same points as in the above embodiment is omitted as appropriate. Further, the above embodiment and each of the following modifications can be configured by appropriately combining them.

上述の実施形態では、ワーク5の認識の正確さを示す評価値Ziとして、ワーク5の認識数を例示したが、これに限られるものではない。例えば、ワーク5の認識処理の結果得られた3次元の点群データの有効数を評価値Ziとしてもよい。或いは、ワーク5の既知の3次元情報(例えば、3次元CAD(Computer Aided Design)データ)と、ワーク5の認識処理の結果得られた形状情報との一致の度合いを評価値Ziとしてもよい。 In the above-described embodiment, the number of recognized works 5 is exemplified as the evaluation value Zi indicating the accuracy of recognition of the works 5, but the present invention is not limited to this. For example, the effective number of three-dimensional point cloud data obtained as a result of the recognition process of the workpiece 5 may be set as the evaluation value Zi. Alternatively, the evaluation value Zi may be the degree of agreement between known three-dimensional information (for example, three-dimensional CAD (Computer Aided Design) data) of the work 5 and shape information obtained as a result of recognition processing of the work 5.

上述の実施形態では、第3計測パラメータにおけるセンサ1の速度を、第1計測パラメータにおけるセンサ1の速度のk倍に設定し、第3計測パラメータにおけるセンサ1による計測の時間間隔を、第1計測パラメータにおけるセンサ1による計測の時間間隔の(1/k)倍に設定する例を示したが、これに限られるものではない。例えば、第1計測パラメータにおけるセンサ1の速度をV1とし、第3計測パラメータにおけるセンサ1の速度をV2とし、第1計測パラメータにおけるセンサ1による計測の時間間隔をT1とし、第3計測パラメータにおけるセンサ1による計測の時間間隔をT2とする。この場合、(V2×T2)が(V1×T1)の整数倍であれば、第1データの検証結果は、第2データの検証結果を含むため、本実施形態に関わる計測パラメータの最適化方法を適用することができる。 In the above-described embodiment, the speed of the sensor 1 in the third measurement parameter is set to k times the speed of the sensor 1 in the first measurement parameter, and the time interval of measurement by the sensor 1 in the third measurement parameter is set to k times the speed of the sensor 1 in the first measurement parameter. Although an example has been shown in which the parameter is set to (1/k) times the time interval of measurement by the sensor 1, the parameter is not limited to this. For example, the speed of sensor 1 in the first measurement parameter is V1, the speed of sensor 1 in the third measurement parameter is V2, the time interval of measurement by sensor 1 in the first measurement parameter is T1, and the speed of sensor 1 in the third measurement parameter is T1. Let T2 be the time interval of measurement according to 1. In this case, if (V2×T2) is an integer multiple of (V1×T1), the verification result of the first data includes the verification result of the second data, so the measurement parameter optimization method related to this embodiment can be applied.

上述の実施形態では、V2及びT2は、センサ1の移動経路において常に一定であることを前提としているが、これに限られるものではない。例えば、センサ1の移動経路を複数の区間に分割し、それぞれの区間においてV2及びT2が一定であればよく、異なる区間の間でV2及びT2は必ずしも同じである必要はない。 In the above-described embodiment, it is assumed that V2 and T2 are always constant on the moving path of the sensor 1, but the present invention is not limited to this. For example, the moving route of the sensor 1 may be divided into a plurality of sections, and V2 and T2 may be constant in each section, and V2 and T2 do not necessarily need to be the same between different sections.

<5.1:第1変形例>
第1変形例では、所定の判断基準を、ワーク5の認識の正確さを示す評価値Ziとしての認識数が所定の認識数ZB以上であり、且つ、センサ1の移動の速度Vがより速いこととする。ここで、図13は、図11に例示した第2データを、評価値Ziが大きい順にデータをソートし、且つ、同じ評価値Ziのデータを、速度Vが大きい順にソートしなおした図である。同図によれば、認識数ZB=19個、及び、速度Vが最大(80%)となる計測パラメータは、4セット存在し、認識数ZB=18個、及び、速度Vが最大(90%)となる計測パラメータは、6セット存在し、認識数ZB=17個、及び、速度Vが最大(90%)となる計測パラメータは、1セット存在することが確認された。最適化計測パラメータは、所望の認識数ZBに応じて、これらの中から、適宜選択することができる。このとおり、所定の判断基準として、ワーク5の所定の認識数ZBに加えて、センサ1の速度Vがより速いことを加えることにより、所望の認識数ZBを満たしつつ、センサ1の移動時の速度Vを優先する場合に有利となる。
<5.1: First modification example>
In the first modification, the predetermined criterion is that the number of recognitions as the evaluation value Zi indicating the accuracy of recognition of the workpiece 5 is equal to or greater than the predetermined number of recognitions ZB, and the speed V of the movement of the sensor 1 is faster. That's it. Here, FIG. 13 is a diagram obtained by sorting the second data illustrated in FIG. 11 in descending order of evaluation value Zi, and re-sorting data with the same evaluation value Zi in descending order of velocity V. . According to the figure, there are four sets of measurement parameters for which the number of recognitions ZB = 19 and the speed V is the maximum (80%), and the number of recognitions ZB = 18 and the speed V is the maximum (90%). ), it was confirmed that there are 6 sets of measurement parameters, the number of recognition ZB = 17, and 1 set of measurement parameters for which the speed V is the maximum (90%). The optimization measurement parameters can be appropriately selected from these depending on the desired recognition number ZB. As shown above, by adding the fact that the speed V of sensor 1 is faster in addition to the predetermined recognition number ZB of workpiece 5 as a predetermined judgment criterion, it is possible to satisfy the desired recognition number ZB while moving sensor 1. This is advantageous when giving priority to the speed V.

<5.2:第2変形例>
第2変形例では、所定の判断基準を、ワーク5の認識の正確さを示す評価値Ziとしての認識数が所定の認識数ZB以上であり、且つ、複数のワーク5の撮影枚数iがより少ないこととする。ここで、図14は、図11に例示した第2データを、認識数Ziが大きい順にデータをソートし、且つ、同じ認識数Ziのデータを、撮影枚数iが小さい順にソートしなおした図である。同図によれば、認識数ZB=19個、及び、撮影枚数iが最小(4枚)となる計測パラメータは、センサ1の速度V=70%、時間間隔T=0.06sec、及び、撮影枚数i=4であり、これを最適化パラメータとして決定することができる。また、図14において、認識数ZB=18個、及び、撮影枚数iが最小(4枚)となる計測パラメータは、6セット存在し、認識数ZB=17個、及び、撮影枚数iが最小(3枚)となる計測パラメータは、4セット存在することが確認された。このとおり、所定の判断基準として、ワーク5の所定の認識数ZBに加えて、撮影枚数iがより少ないことを加えることにより、所望の認識数ZBを満たしつつ、撮影枚数iの低減を優先する場合に有利となる。
<5.2: Second modification example>
In the second modified example, the predetermined judgment criteria are such that the number of recognitions as the evaluation value Zi indicating the accuracy of recognition of the workpieces 5 is greater than or equal to the predetermined number of recognitions ZB, and the number of photographed images i of the plurality of workpieces 5 is more Let's do less. Here, FIG. 14 is a diagram obtained by sorting the second data illustrated in FIG. 11 in descending order of the number of recognitions Zi, and then re-sorting the data with the same number of recognition Zi in descending order of the number of captured images i. be. According to the figure, the measurement parameters for which the number of recognition ZB = 19 and the number of photographed images i are the minimum (4 images) are: speed V of sensor 1 = 70%, time interval T = 0.06 sec, and photographing The number of sheets i=4, which can be determined as an optimization parameter. In addition, in FIG. 14, there are 6 sets of measurement parameters for which the number of recognitions ZB = 18 pieces and the number of shots i is the minimum (4 pieces), and the number of recognitions ZB = 17 pieces and the number of shots i is the minimum (4 pieces). It was confirmed that there are 4 sets of measurement parameters (3 sheets). As shown, by adding the fact that the number of captured images i is smaller in addition to the predetermined recognized number ZB of the workpiece 5 as a predetermined criterion, priority is given to reducing the number of captured images i while satisfying the desired number of recognized ZB. advantageous in some cases.

<5.3:第3変形例>
第3変形例では、第1計測パラメータによる複数のワーク5のセンサ1による撮影を、複数回実施し、各撮影について取得した各撮影枚数iの認識数Ziの平均値を、第1計測パラメータに関連付けて第1データとして記憶する。この場合、センサ1の位置姿勢、センサ1の移動経路P0、複数のワーク5のばら積み状態等を不作為(ランダム)に変更するようにしてもよい。ここで、図15は、第4変形例における処理手順の一例を示すフローチャートである。
<5.3: Third modification example>
In the third modification, the plurality of workpieces 5 are photographed by the sensor 1 multiple times using the first measurement parameter, and the average value of the recognition number Zi of each number of photographed images obtained for each photographing is set as the first measurement parameter. The information is stored in association as first data. In this case, the position and orientation of the sensor 1, the movement path P0 of the sensor 1, the bulk stacking state of the plurality of works 5, etc. may be changed randomly. Here, FIG. 15 is a flowchart showing an example of the processing procedure in the fourth modification.

すなわち、第3変形例における処理は、図15に示す如く、ステップS502に代えて、ステップS1501乃至S1503を実施すること以外は、図5に示す動作例における処理手順の一例と同様である。ステップS1501では、ステップS502(第2ステップ(1))と同様に、得られた複数枚数Nの撮影画像を用いた画像処理を行い、各撮影枚数iについてワーク5の認識数Ziを取得するが、それらの認識数Ziを第1計測パラメータに関連付けて記憶する処理は、未だ実施しない。次に、ステップS1502において、予め設定したステップS501の繰り返し数Qに達していない場合(ステップS1502が「いいえ」)には、ステップS501を繰り返し、Q回の撮影処理における各撮影枚数iについて、ワーク5の認識数Ziを取得する。つまり、各撮影枚数について、Q個の認識数Ziのデータを取得する。ステップS501の繰り返し数がQ回に達した場合(ステップS1502が「はい」)、ステップS1503に移行して、Q個の認識数Ziのデータの平均値を算出し、その平均値を第1計測パラメータに関連付けて第1データとして記憶部43に記憶する。 That is, as shown in FIG. 15, the processing in the third modified example is the same as an example of the processing procedure in the operation example shown in FIG. 5, except that steps S1501 to S1503 are performed instead of step S502. In step S1501, similarly to step S502 (second step (1)), image processing is performed using the obtained plural number N of photographed images, and the number of recognized works 5 Zi is obtained for each number of photographed images i. , the process of storing the number of recognitions Zi in association with the first measurement parameter has not yet been performed. Next, in step S1502, if the preset number of repetitions Q of step S501 has not been reached (step S1502 is "No"), step S501 is repeated and the workpiece is Obtain the recognition number Zi of 5. That is, for each number of photographed images, data of Q recognition numbers Zi are acquired. When the number of repetitions of step S501 reaches Q times (step S1502 is "Yes"), the process moves to step S1503, where the average value of the data of Q recognition numbers Zi is calculated, and the average value is used for the first measurement. The data is stored in the storage unit 43 as first data in association with the parameters.

かかる第4変形例によれば、実験的に求める第1データの精度及び信頼性を高めることができ、その結果、複数のワーク5の計測時におけるロバスト性、複数のワーク5の操作における作業効率、及び、全体のスループットをより一層向上させることができる。 According to the fourth modification, it is possible to improve the accuracy and reliability of the first data obtained experimentally, and as a result, the robustness when measuring a plurality of workpieces 5 and the work efficiency when operating a plurality of workpieces 5 are improved. , and the overall throughput can be further improved.

<5.4:第4変形例>
第4変形例は、動作例の「§4 作用・効果」で言及したように、ロボットシステム100のロボット10が変更になったときに、センサ1を搭載したあるロボット10について予め取得しておいた第1データ乃至第2データを活用して、ロボット10変更後のロボットシステム100における最適化計測パラメータを求める方法の一例である。すなわち、例えば、前記動作例における第1データ乃至第2データのパラメータセット中に、変更後のロボット10の特性(機構パラメータ)に応じた条件(具体的には、センサ1の移動速度Vと時間間隔T)が含まれている場合、その条件に対応する第1データ乃至第2データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、変更後の異なるロボットによる複数のワーク5の操作時における最適化計測パラメータとして決定する。これにより、ロボット10に依存することなく、計測パラメータの最適化を実現することができる簡略な手法を提供することが可能となる。。
<5.4: Fourth modification example>
As mentioned in "§4 Actions and Effects" of the operation example, in the fourth modification, when the robot 10 of the robot system 100 is changed, the information is acquired in advance for a certain robot 10 equipped with the sensor 1. This is an example of a method for obtaining optimized measurement parameters in the robot system 100 after the robot 10 has been changed, by utilizing the first data and second data that have been used. That is, for example, during the parameter setting of the first data to the second data in the operation example, conditions (specifically, the moving speed V and time of the sensor 1) according to the characteristics (mechanical parameters) of the robot 10 after the change are set. If the interval T) is included, the measurement parameters of the data that satisfy the predetermined criteria are selected from the first data to the second data corresponding to the condition, and the measurement parameters of the data that satisfy the predetermined criteria are selected, and the measurement parameters are This is determined as the optimum measurement parameter during operation. This makes it possible to provide a simple method that can optimize measurement parameters without depending on the robot 10. .

<5.5:第5変形例>
第5変形例も、動作例の「§4 作用・効果」で言及したように、ロボットシステム100のロボット10が変更になったときに、センサ1を搭載したあるロボット10について予め取得しておいた第1データ乃至第2データを活用して、ロボット10変更後のロボットシステム100における最適化計測パラメータを求める方法の一例である。すなわち、例えば、前記動作例における第1データ乃至第2データのパラメータセット中に、変更後のロボット10の特性に応じた条件が含まれていれば、その条件における結果を、変更後のロボット10についての基本データ(第1データ)として用いることができる。そして、その基本データを使用して、上記の第2ステップ乃至第4ステップと同様の処理を実行することにより、変更後のロボット10を含むロボットシステム100について、新たな事前計測を行うことなく、計測パラメータの最適化を行うことができる。このようにしても、ロボット10に依存することなく、計測パラメータの最適化を実現することができる簡略な手法を提供することが可能となる。
<5.5: Fifth modification example>
In the fifth modification, as mentioned in "§4 Actions and Effects" of the operation example, when the robot 10 of the robot system 100 is changed, the information is acquired in advance for a certain robot 10 equipped with the sensor 1. This is an example of a method for obtaining optimized measurement parameters in the robot system 100 after the robot 10 has been changed, by utilizing the first data and second data that have been used. That is, for example, if the parameter set of the first data to second data in the operation example includes a condition corresponding to the characteristics of the robot 10 after the change, the results under that condition are It can be used as basic data (first data) for. Then, by using the basic data and executing the same processes as the second to fourth steps above, the robot system 100 including the robot 10 after the change can be measured without performing new preliminary measurements. Measurement parameters can be optimized. Even in this case, it is possible to provide a simple method that can realize optimization of measurement parameters without depending on the robot 10.

<5.6:第6変形例>
さらに、第6変形例として、図16に、六角ボルトとは異なる形状の複数のワーク5を計測し、それらの撮像画像に、画像処理によるワーク5の位置姿勢の認識結果(輪郭線)を重ねて表示した平面図を示す。このような種々のワーク5についても、本開示による計測パラメータの最適化方法を適用することにより、種々のワーク5に対する計測パラメータの最適化における汎用性を向上させることができる。
<5.6: Sixth variation>
Furthermore, as a sixth modification example, as shown in FIG. 16, a plurality of works 5 having shapes different from hexagonal bolts are measured, and the recognition results (outline lines) of the position and orientation of the works 5 through image processing are superimposed on the captured images. The top view is shown. By applying the measurement parameter optimization method according to the present disclosure to such various works 5, it is possible to improve the versatility in optimizing measurement parameters for various works 5.

§6 付記
以上説明した実施形態及び変形例は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態及び変形例が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態及び変形例で示した構成同士を部分的に置換し又は組み合わせることも可能である。
§6 Supplementary Note The embodiments and modified examples described above are intended to facilitate understanding of the present invention, and are not intended to be interpreted as limiting the present invention. Each element included in the embodiment and the modified example, as well as its arrangement, material, conditions, shape, size, etc., are not limited to those illustrated and can be changed as appropriate. It is also possible to partially replace or combine the structures shown in different embodiments and modifications.

1…センサ(計測装置)、2…ハンド、3…ロボットアーム、4…制御装置、5…ワー
ク(対象物)、6,7…収納容器、10…ロボット、41…制御演算部、42…通信イン
タフェース(I/F)部、43…記憶部、44…入力部、45…出力部、46…バスライ
ン、100…ロボットシステム、401…センサ制御部、402…ロボット制御部、41
0…撮像画像取得部、411…第1データ取得部、412…第2データ取得部、413…
第3データ取得部、414…最適化パラメータ決定部、Gi…センサの位置、P0,P1
,P2…移動経路。
DESCRIPTION OF SYMBOLS 1...Sensor (measuring device), 2...Hand, 3...Robot arm, 4...Control device, 5...Work (object), 6, 7...Storage container, 10...Robot, 41...Control calculation unit, 42...Communication Interface (I/F) section, 43... Storage section, 44... Input section, 45... Output section, 46... Bus line, 100... Robot system, 401... Sensor control section, 402... Robot control section, 41
0... Captured image acquisition section, 411... First data acquisition section, 412... Second data acquisition section, 413...
Third data acquisition unit, 414...Optimization parameter determination unit, Gi...Sensor position, P0, P1
, P2... Movement route.

Claims (10)

ロボットに設けられた計測装置により一つ以上の対象物を計測するときの計測パラメータの最適化方法であって、
第1計測パラメータとしての速度V、時間間隔T、及び合計移動角度θで前記計測装置を移動させながら、前記一つ以上の対象物を撮影して複数枚数Nの撮影画像を取得する第1ステップと、
第2計測パラメータとしての速度V、時間間隔T×j(j:以上の整数)、及び合計移動角度θで前記計測装置を移動させながら、前記一つ以上の対象物を撮影して複数枚数N/jの撮影画像を取得し、且つ、前記一つ以上の対象物の位置姿勢を認識する画像処理を行ったと仮定した場合の、枚数i(ここではi=1,2,…,N/j-1,N/j)における前記対象物の認識の正確さを示す評価値Ziを推定し、前記第2計測パラメータに関連付けた評価値Ziを第1データとして記憶する第2ステップと、
前記第1データに基づいて、第3計測パラメータとして、速度V×k(k:2以上の整数)、時間間隔T×j/k、及び合計移動角度θで前記計測装置を移動させながら、前記一つ以上の対象物を撮影して複数枚数N/j/kの撮影画像を取得し、且つ、前記画像処理と同等の処理を行ったと仮定した場合の、枚数i(ここではi=1,2,…,N/j/k-1,N/j/k)における前記対象物の認識の正確さを示す評価値Ziを推定し、前記第3計測パラメータに関連付けた評価値Ziを第2データとして記憶する第3ステップと、
前記第2データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、前記ロボットによる前記一つ以上の対象物の操作時における最適化計測パラメータとして決定する第4ステップと、
を含む計測パラメータの最適化方法。
A method for optimizing measurement parameters when measuring one or more objects with a measurement device installed on a robot, the method comprising:
A first step of photographing the one or more objects while moving the measuring device at a speed V, a time interval T, and a total movement angle θ as first measurement parameters to obtain a plurality of N photographed images. and,
While moving the measuring device at a speed V as a second measurement parameter, a time interval T x j (j: an integer of 2 or more), and a total movement angle θ, take a plurality of images of the one or more objects. Assuming that N/j captured images are acquired and image processing is performed to recognize the position and orientation of the one or more objects, the number of images is i (here, i=1, 2,..., N/ a second step of estimating an evaluation value Zi indicating accuracy of recognition of the target object at (j-1, N/j) and storing the evaluation value Zi associated with the second measurement parameter as first data;
Based on the first data, while moving the measuring device at a speed V x k (k: an integer of 2 or more), a time interval T x j/k, and a total movement angle θ as third measurement parameters, Assuming that one or more objects are photographed to obtain a plurality of N/j/k captured images, and the same processing as the image processing described above is performed, the number of images is i (here, i=1, 2, ..., N/j/k-1, N/j/k), and estimate the evaluation value Zi that indicates the accuracy of recognition of the object in A third step of storing it as data,
a fourth step of selecting a measurement parameter of data that satisfies a predetermined criterion from the second data and determining it as an optimized measurement parameter when the robot operates the one or more objects;
Optimization method of measurement parameters including.
前記所定の判定基準は、前記対象物の評価値Ziが予め設定された評価値以上であることを含む、請求項1記載の方法。 2. The method according to claim 1, wherein the predetermined criterion includes that the evaluation value Zi of the object is greater than or equal to a preset evaluation value. 前記所定の判定基準は、少なくとも計測に掛かる所要時間がより短いことを含む、請求項2記載の方法。 3. The method according to claim 2, wherein the predetermined criterion includes at least a shorter time required for measurement. 前記所定の判定基準は、前記計測装置の移動の速度Vがより速いことを含む、請求項2又は3記載の方法。 The method according to claim 2 or 3, wherein the predetermined criterion includes that the speed V of movement of the measuring device is faster. 前記所定の判定基準は、前記一つ以上の対象物の撮影枚数iがより少ないことを含む、請求項2乃至4の何れか記載の方法。 5. The method according to claim 2, wherein the predetermined criterion includes that the number i of images of the one or more objects is smaller. 前記第1計測パラメータによる前記一つ以上の対象物の撮影を、複数回実施し、各撮影について取得した前記評価値Ziの平均値を、前記第1データとして記憶する、請求項1乃至5の何れか記載の方法。 6. The method according to claim 1, wherein the one or more objects are photographed a plurality of times using the first measurement parameter, and an average value of the evaluation value Zi obtained for each photograph is stored as the first data. Any method described. 前記ロボットと異なるロボットの特性に応じた速度V及び時間間隔Tに対応する計測パラメータに対応するデータが、前記第1データ乃至第2データに含まれている場合、該第1データ乃至第2データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、前記異なるロボットによる前記複数の対象物の操作時における最適化計測パラメータとして決定する、請求項1乃至6の何れか記載の方法。 If the first data to second data include data corresponding to a measurement parameter corresponding to a speed V and a time interval T according to characteristics of a robot different from the robot, the first data to second data The method according to any one of claims 1 to 6, wherein measurement parameters of data satisfying predetermined criteria are selected from among the measurement parameters and determined as optimization measurement parameters when the plurality of objects are manipulated by the different robots. . 前記ロボットと異なるロボットの特性に応じた速度V及び時間間隔Tに対応する計測パラメータに対応するデータが、前記第1データ乃至第2データに含まれている場合、該対応するデータの計測パラメータに関連付けられたデータを新たな第1データとして、前記第2ステップ乃至第4ステップを実施することにより新たな第2データを取得及び記憶し、前記新たな第2データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、前記異なるロボットによる前記複数の対象物の操作時における最適化計測パラメータとして決定する、請求項1乃至6の何れか記載の方法。 If data corresponding to a measurement parameter corresponding to a speed V and a time interval T according to characteristics of a robot different from the robot is included in the first data or second data, the measurement parameter of the corresponding data is included. New second data is acquired and stored by performing the second to fourth steps using the associated data as new first data, and from among the new second data, a predetermined criterion is determined. 7. The method according to claim 1, wherein measurement parameters of data satisfying the following are selected and determined as optimized measurement parameters when the plurality of objects are operated by the different robots. ロボットに設けられた計測装置により一つ以上の対象物を計測するときの計測パラメータの最適化装置であって、
当該装置は、少なくとも1つのプロセッサを有しており、該少なくとも1つのプロセッサが、
第1計測パラメータとしての速度V、時間間隔T、及び合計移動角度θで前記計測装置を移動させながら、前記一つ以上の対象物を撮影して複数枚数Nの撮影画像を取得する第1ステップと、
第2計測パラメータとしての速度V、時間間隔T×j(j:以上の整数)、及び合計移動角度θで前記計測装置を移動させながら、前記一つ以上の対象物を撮影して複数枚数N/jの撮影画像を取得し、且つ、前記一つ以上の対象物の位置姿勢を認識する画像処理を行ったと仮定した場合の、枚数i(ここではi=1,2,…,N/j-1,N/j)における前記対象物の認識の正確さを示す評価値Ziを推定し、前記第2計測パラメータに関連付けた評価値Ziを第1データとして記憶する第2ステップと、
前記第1データに基づいて、第3計測パラメータとして、速度V×k(k:2以上の整数)、時間間隔T×j/k、及び合計移動角度θで前記計測装置を移動させながら、前記一つ以上の対象物を撮影して複数枚数N/j/kの撮影画像を取得し、且つ、前記画像処理と同等の処理を行ったと仮定した場合の、枚数i(ここではi=1,2,…,N/j/k-1,N/j/k)における前記対象物の認識の正確さを示す評価値Ziを推定し、前記第3計測パラメータに関連付けた評価値Ziを第2データとして記憶する第3ステップと、
前記第2データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、前記ロボットによる前記一つ以上の対象物の操作時における最適化計測パラメータとして決定する第4ステップと、
を実行する、計測パラメータの最適化装置。
A measurement parameter optimization device when measuring one or more objects with a measurement device installed on a robot,
The device has at least one processor, the at least one processor comprising:
A first step of photographing the one or more objects while moving the measuring device at a speed V, a time interval T, and a total movement angle θ as first measurement parameters to obtain a plurality of N photographed images. and,
While moving the measuring device at a speed V as a second measurement parameter, a time interval T x j (j: an integer of 2 or more), and a total movement angle θ, take a plurality of images of the one or more objects. Assuming that N/j captured images are acquired and image processing is performed to recognize the position and orientation of the one or more objects, the number of images is i (here, i=1, 2,..., N/ a second step of estimating an evaluation value Zi indicating accuracy of recognition of the target object at (j-1, N/j) and storing the evaluation value Zi associated with the second measurement parameter as first data;
Based on the first data, while moving the measuring device at a speed V x k (k: an integer of 2 or more), a time interval T x j/k, and a total movement angle θ as third measurement parameters, Assuming that one or more objects are photographed to obtain a plurality of N/j/k photographed images, and processing equivalent to the image processing described above is performed, the number of images is i (here, i=1, 2,..., N/j/k-1, N/j/k), and estimate the evaluation value Zi associated with the third measurement parameter as the second A third step of storing it as data,
a fourth step of selecting a measurement parameter of data that satisfies a predetermined criterion from the second data and determining it as an optimized measurement parameter when the robot operates the one or more objects;
Optimization device for measurement parameters.
ロボットに設けられた計測装置により一つ以上の対象物を計測するときの計測パラメータの最適化を行うために、少なくとも1つのプロセッサを有するコンピュータに、
第1計測パラメータとしての速度V、時間間隔T、及び合計移動角度θで前記計測装置を移動させながら、前記一つ以上の対象物を撮影して複数枚数Nの撮影画像を取得する第1ステップと、
第2計測パラメータとしての速度V、時間間隔T×j(j:以上の整数)、及び合計移動角度θで前記計測装置を移動させながら、前記一つ以上の対象物を撮影して複数枚数N/jの撮影画像を取得し、且つ、前記一つ以上の対象物の位置姿勢を認識する画像処理を行ったと仮定した場合の、枚数i(ここではi=1,2,…,N/j-1,N/j)における前記対象物の認識の正確さを示す評価値Ziを推定し、前記第2計測パラメータに関連付けた評価値Ziを第1データとして記憶する第2ステップと、
前記第1データに基づいて、第3計測パラメータとして、速度V×k(k:2以上の整数)、時間間隔T×j/k、及び合計移動角度θで前記計測装置を移動させながら、前記一つ以上の対象物を撮影して複数枚数N/j/kの撮影画像を取得し、且つ、前記画像処理と同等の処理を行ったと仮定した場合の、枚数i(ここではi=1,2,…,N/j/k-1,N/j/k)における前記対象物の認識の正確さを示す評価値Ziを推定し、前記第3計測パラメータに関連付けた評価値Ziを第2データとして記憶する第3ステップと、
前記第2データのなかから、所定の判定基準を満たすデータの計測パラメータを選定し、前記ロボットによる前記一つ以上の対象物の操作時における最適化計測パラメータとして決定する第4ステップと、
を実行させるコンピュータ制御プログラム。
In order to optimize measurement parameters when measuring one or more objects with a measurement device installed on the robot, a computer having at least one processor,
A first step of photographing the one or more objects while moving the measuring device at a speed V, a time interval T, and a total movement angle θ as first measurement parameters to obtain a plurality of N photographed images. and,
While moving the measuring device at a speed V as a second measurement parameter, a time interval T x j (j: an integer of 2 or more), and a total movement angle θ, take a plurality of images of the one or more objects. Assuming that N/j captured images are acquired and image processing is performed to recognize the position and orientation of the one or more objects, the number of images is i (here, i=1, 2,..., N/ a second step of estimating an evaluation value Zi indicating accuracy of recognition of the target object at (j-1, N/j) and storing the evaluation value Zi associated with the second measurement parameter as first data;
Based on the first data, while moving the measuring device at a speed V x k (k: an integer of 2 or more), a time interval T x j/k, and a total movement angle θ as third measurement parameters, Assuming that one or more objects are photographed to obtain a plurality of N/j/k captured images, and the same processing as the image processing described above is performed, the number of images is i (here, i=1, 2, ..., N/j/k-1, N/j/k), and estimate the evaluation value Zi that indicates the accuracy of recognition of the object in A third step of storing it as data,
a fourth step of selecting a measurement parameter of data that satisfies a predetermined criterion from the second data and determining it as an optimized measurement parameter when the robot operates the one or more objects;
A computer-controlled program that runs
JP2020097760A 2020-03-13 2020-06-04 Measurement parameter optimization method and device, and computer control program Active JP7450857B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/172,105 US11816754B2 (en) 2020-03-13 2021-02-10 Measurement parameter optimization method and device, and computer control program stored on computer-readable storage medium
DE102021103726.3A DE102021103726B4 (en) 2020-03-13 2021-02-17 Measurement parameter optimization method and device and computer control program
CN202110187293.9A CN113386122B (en) 2020-03-13 2021-02-18 Method and device for optimizing measurement parameters and computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020044682 2020-03-13
JP2020044682 2020-03-13

Publications (2)

Publication Number Publication Date
JP2021148763A JP2021148763A (en) 2021-09-27
JP7450857B2 true JP7450857B2 (en) 2024-03-18

Family

ID=77848565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020097760A Active JP7450857B2 (en) 2020-03-13 2020-06-04 Measurement parameter optimization method and device, and computer control program

Country Status (1)

Country Link
JP (1) JP7450857B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045019A (en) 2014-08-20 2016-04-04 オムロン株式会社 Teaching device for substrate inspection device, and teaching method
JP2017056546A (en) 2015-09-14 2017-03-23 ファナック株式会社 Measurement system used for calibrating mechanical parameters of robot
JP2018161700A (en) 2017-03-24 2018-10-18 キヤノン株式会社 Information processing device, system, information processing method, and manufacturing method
JP2019158499A (en) 2018-03-12 2019-09-19 オムロン株式会社 Appearance inspection system, setting device, image processor, method for setting, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016045019A (en) 2014-08-20 2016-04-04 オムロン株式会社 Teaching device for substrate inspection device, and teaching method
JP2017056546A (en) 2015-09-14 2017-03-23 ファナック株式会社 Measurement system used for calibrating mechanical parameters of robot
JP2018161700A (en) 2017-03-24 2018-10-18 キヤノン株式会社 Information processing device, system, information processing method, and manufacturing method
JP2019158499A (en) 2018-03-12 2019-09-19 オムロン株式会社 Appearance inspection system, setting device, image processor, method for setting, and program

Also Published As

Publication number Publication date
JP2021148763A (en) 2021-09-27

Similar Documents

Publication Publication Date Title
US11816754B2 (en) Measurement parameter optimization method and device, and computer control program stored on computer-readable storage medium
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP5977544B2 (en) Information processing apparatus and information processing method
JP6000579B2 (en) Information processing apparatus and information processing method
US20180004188A1 (en) Robot, robot control apparatus and robot system
JP2016099257A (en) Information processing device and information processing method
JP6703812B2 (en) 3D object inspection device
JP7376268B2 (en) 3D data generation device and robot control system
CN104976950B (en) Object space information measuring device and method and image capturing path calculating method
JP7454132B2 (en) Robot system control device, robot system control method, computer control program, and robot system
JP6450788B2 (en) Work removal system
JP2016159406A (en) Robot control device, robot control method and robot system
JP7450857B2 (en) Measurement parameter optimization method and device, and computer control program
JP7180783B2 (en) CALIBRATION METHOD FOR COMPUTER VISION SYSTEM AND 3D REFERENCE OBJECT USED FOR CALIBRATION METHOD
EP4094904B1 (en) Robot system control device, robot system control method, computer control program, and robot system
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
JP7365567B2 (en) Measurement system, measurement device, measurement method and measurement program
JP7134413B2 (en) Measuring device, measuring method, and measuring program
JP7299442B1 (en) Control device, three-dimensional position measurement system, and program
JP7415013B2 (en) Robotic device that detects interference between robot components
JP2021133458A (en) Three-dimensional measurement apparatus and three-dimensional measurement system
JP6842753B2 (en) Work grip position indication system and picking device
JP2024072429A (en) Image processing device, image processing method, robot system, article manufacturing method, imaging device, imaging device control method, program, and recording medium
della Vallea et al. A Robotic Application Developed at DiME to Scan and Reproduces Objects
JP2010256108A (en) Distance measuring method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240218

R150 Certificate of patent or registration of utility model

Ref document number: 7450857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150