JP2022006427A - Imaging system construction device - Google Patents

Imaging system construction device Download PDF

Info

Publication number
JP2022006427A
JP2022006427A JP2020108638A JP2020108638A JP2022006427A JP 2022006427 A JP2022006427 A JP 2022006427A JP 2020108638 A JP2020108638 A JP 2020108638A JP 2020108638 A JP2020108638 A JP 2020108638A JP 2022006427 A JP2022006427 A JP 2022006427A
Authority
JP
Japan
Prior art keywords
calibration
unit
image pickup
imaging system
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020108638A
Other languages
Japanese (ja)
Inventor
毅 北村
Takeshi Kitamura
聡 笹谷
So Sasatani
誠也 伊藤
Seiya Ito
信博 知原
Nobuhiro Chihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020108638A priority Critical patent/JP2022006427A/en
Publication of JP2022006427A publication Critical patent/JP2022006427A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a device that automatically generates, on a virtual space, a specification and an arrangement of an imaging device and a parameter necessary for camera/robot calibration, and automatically construct an optimal imaging system by performing an evaluation using a real device.SOLUTION: An imaging system construction device comprises: an imaging system planning unit that plans specifications and arrangements of an imaging device satisfying a system requirement of an imaging system and a reference object and parameters for calibrating the imaging device and a robot; an imaging system evaluation unit that evaluates accuracy of calibrating, using a real device consisted of the robot, the reference object and the imaging device, which is planned by the imaging system planning unit; and a requirement feedback part that when the accuracy in calibrating evaluated by the imaging system evaluation unit does not satisfy the system requirement, feeds back an additional requirement necessary for satisfying the system requirement to the imaging system planning unit to enable the calibration to be re-executed or the real device to be restructured.SELECTED DRAWING: Figure 1

Description

本発明は、自律ロボットの周辺環境の推定に用いる撮像システムの構築を補助する撮像システム構築装置に関する。 The present invention relates to an imaging system construction device that assists in the construction of an imaging system used for estimating the surrounding environment of an autonomous robot.

近年の労働力不足を解消するため、従来は人が行ってきた、物流分野におけるピッキング作業や、産業分野における組み立て作業など、何らかのワーク(作業対象物)を取り扱う各種作業を自動化する自律ロボットのニーズが高まっている。自律ロボットに適切な自律作業を実行させるには、自律ロボットの姿勢やワーク等の周辺環境を高精度に認識できる撮像システムの構築が必要となる。 Needs for autonomous robots that automate various tasks that handle some kind of work (work object), such as picking work in the logistics field and assembly work in the industrial field, which have been performed by humans in the past in order to solve the labor shortage in recent years. Is increasing. In order for the autonomous robot to perform appropriate autonomous work, it is necessary to construct an imaging system that can recognize the surrounding environment such as the posture and work of the autonomous robot with high accuracy.

高精度の撮像システムを構築するには、撮像画像に基づいて推定した自律ロボットの姿勢と、実際の自律ロボットの姿勢が一致するように、撮影装置の種類や仕様を選定したり、自律ロボットに対する撮像装置の相対的な配置(位置、姿勢)を決定したり、撮像画像から実際の姿勢推定に用いるパラメータを最適化したりする、キャリブレーション(以降、「校正」とも称する)の実施が必要である。このキャリブレーションには、例えば、形状が既知のターゲットマーカを自律ロボット上に取り付け、様々な姿勢に変更したロボットを撮像装置により撮影し、撮影画像とロボットの姿勢の複数の組を比較することで、撮像装置と自律ロボット間の相対的な位置と姿勢を推定する方法がある。 To build a high-precision imaging system, select the type and specifications of the imaging device so that the attitude of the autonomous robot estimated based on the captured image matches the actual attitude of the autonomous robot, or for the autonomous robot. It is necessary to carry out calibration (hereinafter also referred to as "calibration") to determine the relative arrangement (position, posture) of the image pickup device and to optimize the parameters used for actual posture estimation from the captured image. .. For this calibration, for example, a target marker with a known shape is attached on an autonomous robot, the robot changed to various postures is photographed by an image pickup device, and a plurality of pairs of captured images and the postures of the robot are compared. , There is a method of estimating the relative position and posture between the image pickup device and the autonomous robot.

しかしながら、上記のキャリブレーション方法では、撮像システムを構築するにあたり、工数の肥大化が懸念される。例えば、システム導入先によりロボットの作業内容や周囲環境の条件が異なるため、条件によっては撮像装置の選定・配置の決定といった撮像方法の選定に膨大な工数を要する。また、高精度なキャリブレーションを実現するためのロボットの姿勢群などのパラメータの調整工数が莫大になる恐れがある。そのため、近年では撮像システムの構築工数を削減するための仕組み・試作への注目が高い。 However, with the above calibration method, there is a concern that the man-hours will increase when constructing the imaging system. For example, since the work contents of the robot and the conditions of the surrounding environment differ depending on the system introduction destination, a huge amount of man-hours are required to select an imaging method such as selection and arrangement of an imaging device depending on the conditions. In addition, there is a risk that the man-hours for adjusting parameters such as the posture group of the robot for realizing highly accurate calibration will be enormous. Therefore, in recent years, much attention has been paid to mechanisms and prototypes for reducing the man-hours for constructing an imaging system.

例えば、特許文献1の要約書では、「キャリブレーションを実行するための設定を容易化する」ための解決手段として、「ロボット制御システムは、撮像部により撮像された画像に基づいて、当該撮像部の視野内に存在する任意の対象物の三次元座標を計測する計測部と、計測された三次元座標とロボットの作用部の位置および姿勢との間の予め算出された対応関係に従って、ロボットの作用部を位置決めするための指令を生成する指令生成部と、対応関係を算出するためのキャリブレーションを実行するキャリブレーション実行部と、キャリブレーションにおいて、ロボットの作用部に関連付けられた基準物体を配置すべき領域であるキャリブレーション領域の設定を受付ける設定受付部とを含む。」との記載がある。すなわち、特許文献1では、撮像装置が撮影したロボットの情報などからシミュレーション環境を構築し、キャリブレーションに使用するロボットの姿勢群をGUI上で選択あるいは自動で生成することで、キャリブレーションの工数を削減している。 For example, in the abstract of Patent Document 1, as a solution for "facilitating the setting for performing calibration", "the robot control system is based on the image captured by the image pickup unit, and the image pickup unit is concerned. The robot's A command generation unit that generates a command to position the action unit, a calibration execution unit that executes calibration to calculate the correspondence relationship, and a reference object associated with the robot's action unit in calibration are arranged. It includes a setting reception unit that accepts the setting of the calibration area, which is the area to be used. " That is, in Patent Document 1, a simulation environment is constructed from the information of the robot photographed by the image pickup device, and the posture group of the robot used for calibration is selected or automatically generated on the GUI to reduce the man-hours for calibration. It is reducing.

特開2019-217571号公報Japanese Unexamined Patent Publication No. 2019-217571

上記の通り、特許文献1によれば、ロボットの姿勢群に関するパラメータ決定の工数を削減しつつキャリブレーションを実行することができる。 As described above, according to Patent Document 1, calibration can be performed while reducing the man-hours for determining parameters related to the posture group of the robot.

しかしながら、特許文献1では、キャリブレーション後に作業が成功するか否かの精度については考慮されておらず、また、撮像方法の選定に関連する作業工数を削減することも考慮されていない。 However, Patent Document 1 does not consider the accuracy of success or failure of the work after calibration, nor does it consider reducing the work man-hours related to the selection of the imaging method.

そこで、本発明の目的は、ロボット、撮像装置、ターゲットマーカを含む現実装置と、シミュレータ上の仮想装置を活用し、作業の成功が保証できる撮像装置の選定・配置とキャリブレーション時のロボットの姿勢群に関するパラメータを自動で策定し、現実装置によるキャリブレーションの評価から、撮像システムを高度化するための追加要件をシミュレータにフィードバックすることで、仮想装置でキャリブレーションを自動的に再度実行する、もしくは撮像方法を修正する指示を作業者に提示することを可能とし、最適な撮像システムの構築を容易にする撮像システム構築装置を提供することである。 Therefore, an object of the present invention is to utilize a real device including a robot, an image pickup device, and a target marker, and a virtual device on a simulator to select and arrange an image pickup device that can guarantee the success of work, and the posture of the robot at the time of calibration. By automatically formulating the parameters related to the group and feeding back the additional requirements for advancing the imaging system from the evaluation of the calibration by the actual device to the simulator, the calibration is automatically performed again in the virtual device, or It is an object of the present invention to provide an image pickup system construction device that makes it possible to present an instruction for modifying an image pickup method to an operator and facilitates the construction of an optimum image pickup system.

上記課題を解決するため、本発明の撮像システム構築装置は、ロボットの周辺環境の推定に用いる撮像システムの構築を補助する撮像システム構築装置であって、前記撮像システムは、ロボットと3次元位置を取得するための参照物を撮像する撮像装置と、前記ロボットの基部座標系と前記撮像装置のカメラ座標系の変換に用いる基部・カメラ変換行列と、を含み、前記撮像システム構築装置は、前記撮像システムのシステム要件を満たす前記撮像装置と前記参照物の仕様と配置、および、前記撮像装置と前記ロボットの校正用パラメータを計画する撮像システム計画ユニットと、該撮像システム計画ユニットが計画した、前記ロボットと前記参照物と前記撮像装置からなる現実装置により、校正の精度を評価する撮像システム評価ユニットと、該撮像システム評価ユニットが評価した、前記校正の精度が前記システム要件を満たさない場合、前記システム要件を満たすために必要な追加要件を、前記撮像システム計画ユニットにフィードバックすることで、前記校正の再実行、もしくは、前記現実装置の再構築を可能とする要件フィードバック部と、を備えるものとした。 In order to solve the above problems, the image pickup system construction device of the present invention is an image pickup system construction device that assists in the construction of an image pickup system used for estimating the surrounding environment of a robot, and the image pickup system has a three-dimensional position with the robot. The image pickup system construction device includes an image pickup device for capturing a reference object for acquisition, and a base / camera conversion matrix used for conversion between the base coordinate system of the robot and the camera coordinate system of the image pickup device. An imaging system planning unit that plans the specifications and arrangement of the imaging device and the reference object that meet the system requirements of the system, and calibration parameters of the imaging device and the robot, and the robot planned by the imaging system planning unit. An image pickup system evaluation unit that evaluates the accuracy of calibration by a real device including the reference object and the image pickup device, and if the accuracy of the calibration evaluated by the image pickup system evaluation unit does not satisfy the system requirements, the system. It is provided with a requirement feedback unit that enables re-execution of the calibration or reconstruction of the actual device by feeding back the additional requirements necessary for satisfying the requirements to the imaging system planning unit. ..

本発明の撮像システム構築装置によれば、現実装置とシミュレータ上の仮想装置を活用し、撮像装置の種類と配置、およびキャリブレーションのパラメータを自動で策定することで、顧客要件を満たす撮像システムの構築に要する工数を低減できる。 According to the image pickup system construction device of the present invention, an image pickup system that meets customer requirements by automatically formulating the type and arrangement of the image pickup device and calibration parameters by utilizing a real device and a virtual device on a simulator. The man-hours required for construction can be reduced.

一実施例における撮像システム構築装置を示す機能ブロック図Functional block diagram showing an imaging system construction device in one embodiment 制御装置のハードウェア構成を示す図Diagram showing the hardware configuration of the controller 現実装置の概略図Schematic diagram of a real device 現実装置の座標系と座標変換を示す図Diagram showing the coordinate system and coordinate transformation of a real device 要件入力装置の入力画面の一例を示す図Diagram showing an example of the input screen of the requirement input device 要件入力装置の入力画面の一例を示す図Diagram showing an example of the input screen of the requirement input device 現実装置計画部の構成を示す図Diagram showing the configuration of the actual equipment planning unit 仮想校正評価部の構成を示す図The figure which shows the structure of the virtual calibration evaluation part 校正データ取得部の処理を示すフローチャートFlow chart showing the processing of the calibration data acquisition unit 校正評価部の構成を示す図The figure which shows the structure of the calibration evaluation part 校正精度推定部の処理を示すフローチャートFlow chart showing the processing of the calibration accuracy estimation unit 誤差推定部の処理を示すフローチャートFlow chart showing the processing of the error estimation unit 評価動作実行部の処理を示すフローチャートFlowchart showing the processing of the evaluation operation execution unit 要件フィードバック部の構成を示す図Diagram showing the configuration of the requirements feedback section 精度不足原因推定部の構成を示す図The figure which shows the structure of the cause estimation part of lack of accuracy 追加要件生成部の処理を示すフローチャートFlowchart showing the processing of the additional requirement generator 現実装置の配置を変更した変形例の構成を示す図The figure which shows the structure of the modification which changed the arrangement of a real device

以下、本発明の撮像システム構築装置の一実施例について、適宜図を参照しながら詳細に説明する。 Hereinafter, an embodiment of the image pickup system construction apparatus of the present invention will be described in detail with reference to the drawings as appropriate.

(全体構成)
図1は、本実施例の撮像システム構築装置2の構成と、現実装置3や要件入力装置4との入出力を示す機能ブロック図である。この撮像システム構築装置2は、自律ロボットの一態様であるロボットアーム(以下、「ロボット31」と称する)によるピッキング作業を自動化するために必要な、ロボット31の姿勢推測用の画像を撮像するための撮像システムの構築を補助する装置である。なお、本発明における撮像システムとは、後述する撮像装置33の仕様および配置(ロボット31に対する相対位置、相対姿勢)と、後述する基部・カメラ変換行列Mの組み合わせで定義されるシステムである。
(overall structure)
FIG. 1 is a functional block diagram showing the configuration of the image pickup system construction device 2 of this embodiment and the input / output of the actual device 3 and the requirement input device 4. The image pickup system construction device 2 is for capturing an image for estimating the posture of the robot 31, which is necessary for automating the picking work by the robot arm (hereinafter, referred to as "robot 31"), which is one aspect of the autonomous robot. It is a device that assists in the construction of the imaging system of. The image pickup system in the present invention is a system defined by a combination of the specifications and arrangement (relative position, relative posture) of the image pickup device 33 described later and the base / camera conversion matrix M1 described later.

(制御装置1)
まず、図2を用いて、撮像システム構築装置2を具現化する制御装置1のハードウェア構成を説明する。図示するように、制御装置1は全体を統括制御するCPU11と、CPU11の指令を伝達するバス12と、ROM13と、RAM14と、記憶装置15と、ネットワークインターフェース16と、後述する撮像装置33を接続するための撮像インターフェース17と、画面出力を行うための画面表示インターフェース18と、外部入力を行うための入力インターフェース19と、を有する一般的なコンピュータである。また、ネットワークインターフェース16には、ロボット31を制御し動作させるためのロボット制御装置16aが接続されている。
(Control device 1)
First, the hardware configuration of the control device 1 that embodies the image pickup system construction device 2 will be described with reference to FIG. As shown in the figure, the control device 1 connects a CPU 11 that controls the entire system, a bus 12 that transmits commands of the CPU 11, a ROM 13, a RAM 14, a storage device 15, a network interface 16, and an image pickup device 33 that will be described later. It is a general computer having an image pickup interface 17 for performing screen output, a screen display interface 18 for performing screen output, and an input interface 19 for performing external input. Further, a robot control device 16a for controlling and operating the robot 31 is connected to the network interface 16.

また、記憶装置15内には、シミュレータ上に仮想装置を生成したり、キャリブレーション(校正)を実行したりするためのプログラム15aと、オペレーティングシステム15bと、現実装置3をシミュレータ上の仮想装置として生成するための3Dモデル15cなどが格納されている。RAM14にロードされたプログラム15aを、CPU11が処理することで、撮像システム構築装置2の各機能が実現される。 Further, in the storage device 15, a program 15a for generating a virtual device on the simulator and executing calibration (calibration), an operating system 15b, and a real device 3 are used as virtual devices on the simulator. A 3D model 15c or the like for generation is stored. By processing the program 15a loaded in the RAM 14 by the CPU 11, each function of the image pickup system construction device 2 is realized.

(撮像システム構築装置2)
次に、制御装置1により実現される、撮像システム構築装置2の各機能の概要を説明する。図1に示すように、撮像システム構築装置2の機能は、撮像システム計画ユニット2Aと、撮像システム評価ユニット2Bと、要件フィードバック部29に大別される。
(Image pickup system construction device 2)
Next, an outline of each function of the image pickup system construction device 2 realized by the control device 1 will be described. As shown in FIG. 1, the functions of the image pickup system construction device 2 are roughly classified into an image pickup system planning unit 2A, an image pickup system evaluation unit 2B, and a requirement feedback unit 29.

撮像システム計画ユニット2Aは、要件受付部20と、現実装置計画部21と、仮想校正評価部22と、校正用パラメータ生成部23と、校正用パラメータ24から構成される。要件受付部20は、要件入力装置4から入力されたシステム要件を現実装置計画部21や仮想校正評価部22へ出力する。現実装置計画部21は、システム要件を満たす現実装置3の仕様と配置(位置、姿勢)を、シミュレータを用いて計画する。仮想校正評価部22は、現実装置計画部21にて計画した現実装置3の仕様や配置の情報からシミュレータ上に仮想装置を生成し、仮想装置を用いてキャリブレーションの実行に必要な校正データを仮想的に生成し、仮想的にキャリブレーションを実行することで評価を行う。校正用パラメータ生成部23は、仮想校正評価部22で生成した校正データに基づきロボット31の姿勢群である校正用パラメータ24を生成する。 The image pickup system planning unit 2A is composed of a requirement reception unit 20, a real device planning unit 21, a virtual calibration evaluation unit 22, a calibration parameter generation unit 23, and a calibration parameter 24. The requirement reception unit 20 outputs the system requirements input from the requirement input device 4 to the actual device planning unit 21 and the virtual calibration evaluation unit 22. The actual device planning unit 21 plans the specifications and arrangement (position, posture) of the actual device 3 that satisfies the system requirements by using the simulator. The virtual calibration evaluation unit 22 generates a virtual device on the simulator from the information of the specifications and arrangement of the real device 3 planned by the real device planning unit 21, and uses the virtual device to generate the calibration data necessary for executing the calibration. Evaluation is performed by virtually generating it and virtually executing calibration. The calibration parameter generation unit 23 generates the calibration parameter 24, which is a posture group of the robot 31, based on the calibration data generated by the virtual calibration evaluation unit 22.

撮像システム評価ユニット2Bは、校正データ取得部25と、校正データ26と、校正実行部27と、校正評価部28から構成される。校正データ取得部25は、校正用パラメータ24に基づき現実装置3を制御し、ロボット31の各関節の角度情報であるエンコーダ値と撮像装置33による撮像データとを含む校正データ26を収集する。校正実行部27は、校正データ26を使用してキャリブレーションを実行することでロボット31と撮像装置33の相対的な位置と姿勢の変換行列を求める。校正評価部28は、キャリブレーションの精度を求める。 The image pickup system evaluation unit 2B is composed of a calibration data acquisition unit 25, a calibration data 26, a calibration execution unit 27, and a calibration evaluation unit 28. The calibration data acquisition unit 25 controls the actual device 3 based on the calibration parameter 24, and collects the calibration data 26 including the encoder value which is the angle information of each joint of the robot 31 and the image pickup data by the image pickup device 33. The calibration execution unit 27 obtains a transformation matrix of relative positions and postures of the robot 31 and the image pickup device 33 by executing calibration using the calibration data 26. The calibration evaluation unit 28 obtains the accuracy of calibration.

要件フィードバック部29は、構成評価部28で推定されたキャリブレーション精度がシステム要件を満たしているか判断し、システム要件を満たしていない場合はシステム要件を満たすよう再度撮像システムを構築するために必要な追加要件を要件受付部20にフィードバックする。 The requirement feedback unit 29 determines whether the calibration accuracy estimated by the configuration evaluation unit 28 meets the system requirements, and if it does not meet the system requirements, it is necessary to reconstruct the imaging system so as to meet the system requirements. The additional requirements are fed back to the requirement reception unit 20.

以下、現実装置3と要件入力部4を説明した後、撮像システム構築装置2の現実装置計画部21、仮想校正評価部22、校正データ取得部25、校正評価部28、要件フィードバック部29について詳細に説明する。 Hereinafter, after explaining the actual device 3 and the requirement input unit 4, the actual device planning unit 21, the virtual calibration evaluation unit 22, the calibration data acquisition unit 25, the calibration evaluation unit 28, and the requirement feedback unit 29 of the imaging system construction device 2 are described in detail. To explain to.

(現実装置3)
図3は、現実装置3の概略図である。ここに示すように、現実装置3は、多関節のロボットアームであるロボット31と、ロボット31上に設置した参照物であるターゲットマーカ32と、ロボット31の一部とその周辺を画角に収める撮像装置33と、を有する。以降、各々について詳細に説明する。
(Reality device 3)
FIG. 3 is a schematic diagram of the actual device 3. As shown here, the reality device 3 accommodates a robot 31 which is an articulated robot arm, a target marker 32 which is a reference object installed on the robot 31, and a part of the robot 31 and its surroundings in an angle of view. It has an image pickup device 33 and. Hereinafter, each will be described in detail.

本実施例では、ロボット31として、6軸ロボットアームを用いる。この6軸ロボットアームは、土台となる基部31a、第一リンク31b、第一関節31c、第二リンク31d、第二関節31e、第三リンク31f、第三関節31gを有する。第三関節31gより先には、3自由度を持つアーム31hが取り付けられているため、ロボット31は、第一関節31c、第二関節31e、第三関節31gを合わせて6の自由度を持ち、任意の姿勢を取ることができる。なお、ロボット31の設置位置について、本実施例では床や土台に固定しているが、短軸スライダーなどを用いることで自由度を増加させ、より広い空間を対象とした作業を実行することもできる。 In this embodiment, a 6-axis robot arm is used as the robot 31. This 6-axis robot arm has a base portion 31a, a first link 31b, a first joint 31c, a second link 31d, a second joint 31e, a third link 31f, and a third joint 31g. Since the arm 31h having 3 degrees of freedom is attached before the 3rd joint 31g, the robot 31 has 6 degrees of freedom in total including the 1st joint 31c, the 2nd joint 31e, and the 3rd joint 31g. , Can take any posture. Although the installation position of the robot 31 is fixed to the floor or the base in this embodiment, the degree of freedom can be increased by using a short axis slider or the like, and work targeting a wider space can be executed. ..

ターゲットマーカ32は、平面状の治具に寸法が既知の模様を印刷したものであり、撮像装置33の撮影画像によりターゲットマーカ32の3次元位置を特定することができる。なお、撮像装置33の撮影画像により、3次元位置が特定可能であれば、ターゲットマーカ32は平面状の治具である必要は無く、球状治具や特殊な形状の治具を用いることもできる。なお、ターゲットマーカ32の取り付け位置について、本実施例ではアーム31hの先端に取り付けているが、ロボット31上であればこの例に限定されない。ただし、一般的にはロボット31の自由度が高く、ピッキング作業が行う空間でターゲットマーカ32を撮影できるアーム先端に取り付けることが望ましい。 The target marker 32 is a flat jig printed with a pattern having known dimensions, and the three-dimensional position of the target marker 32 can be specified by the captured image of the image pickup apparatus 33. If the three-dimensional position can be specified by the captured image of the image pickup device 33, the target marker 32 does not need to be a flat jig, and a spherical jig or a jig having a special shape can be used. .. The attachment position of the target marker 32 is attached to the tip of the arm 31h in this embodiment, but the attachment position is not limited to this example as long as it is on the robot 31. However, in general, the robot 31 has a high degree of freedom, and it is desirable to attach it to the tip of an arm capable of photographing the target marker 32 in a space where picking work is performed.

撮像装置33の撮影方式は、ピッキング対象物であるワークの形状を測定するため、3次元計測が可能である必要がある。本実施例においてはステレオカメラを用いているが、Time of Flight(ToF)方式のカメラや、アクティブステレオ方式のカメラを使用しても良い。なお、撮像装置33は、天井や壁など任意の場所に設置できるが、3次元計測を精度よく実施できる範囲内にワークが映るように撮像装置33を設置することが望ましい。 The imaging method of the image pickup apparatus 33 needs to be capable of three-dimensional measurement in order to measure the shape of the work that is the picking object. Although a stereo camera is used in this embodiment, a Time of Flight (ToF) type camera or an active stereo type camera may be used. Although the image pickup device 33 can be installed at any place such as a ceiling or a wall, it is desirable to install the image pickup device 33 so that the work can be seen within a range where three-dimensional measurement can be performed accurately.

(現実装置3の座標系と座標変換の校正)
図4は、現実装置3の座標系と座標変換の関係を示した図である。ここに示すように、現実装置3の座標系には、ロボット31の基部を原点とする基部座標系Cと、ロボット31のアーム先端を原点とするアーム座標系Cと、ターゲットマーカ32の中心を原点とするマーカ座標系Cと、撮像装置33の光学中心を原点とするカメラ座標系Cと、がある。
(Calibration of the coordinate system and coordinate transformation of the actual device 3)
FIG. 4 is a diagram showing the relationship between the coordinate system of the actual device 3 and the coordinate transformation. As shown here, the coordinate system of the actual device 3 includes a base coordinate system C1 whose origin is the base of the robot 31, an arm coordinate system C2 whose origin is the arm tip of the robot 31, and a target marker 32. There is a marker coordinate system C3 whose origin is the center, and a camera coordinate system C 4 whose origin is the optical center of the image pickup apparatus 33.

また、現実装置3の座標変換に用いる変換行列には、基部座標系Cとカメラ座標系Cの変換に用いる基部・カメラ変換行列Mと、マーカ座標系Cとカメラ座標系Cの変換に用いるマーカ・カメラ変換行列Mと、アーム座標系Cと基部座標系Cの変換に用いるアーム・基部変換表列Mと、アーム座標系Cとマーカ座標系Cの変換に用いるアーム・マーカ変換行列Mと、がある。 The conversion matrix used for the coordinate conversion of the actual device 3 includes the base / camera conversion matrix M 1 used for the conversion of the base coordinate system C 1 and the camera coordinate system C 4 , the marker coordinate system C 3 and the camera coordinate system C 4 . The marker / camera conversion matrix M 2 used for the conversion of, the arm / base conversion table column M 3 used for the conversion of the arm coordinate system C 2 and the base coordinate system C 1 , and the arm coordinate system C 2 and the marker coordinate system C 3 . There is an arm marker transformation matrix M4 used for transformation.

例えば、基部・カメラ変換行列Mの回転行列をRcr、並進行列をtcrとしたとき、カメラ座標系Cにおける任意の点C(x,y,z)は、以下の式1により基部座標系Cの点R(x,y,z)に変換できる。 For example, when the rotation matrix of the base / camera transformation matrix M 1 is R cr and the parallel traveling matrix is t cr , any point C (x c , y c , z c ) in the camera coordinate system C 4 is expressed by the following equation. 1 can be converted into a point R (x r , y r , z r ) of the base coordinate system C1.

Figure 2022006427000002
Figure 2022006427000002

現実装置3の座標変換行列は、一般的に、次の方法で取得する。基部・カメラ変換行列Mは、キャリブレーションにより取得する。マーカ・カメラ変換行列Mは、撮像装置33によりターゲットマーカ32を撮影して得た画像を解析することにより取得する。アーム・基部変換行列Mは、ロボット31の3Dモデル15cと関節角度情報を用いることで取得する。アーム・マーカ変換行列Mは、未知もしくはターゲットマーカ32をロボット31に取り付けするための治具の設計値により取得する。 The coordinate transformation matrix of the real device 3 is generally acquired by the following method. The base / camera transformation matrix M 1 is acquired by calibration. The marker-camera transformation matrix M 2 is acquired by photographing the target marker 32 with the image pickup apparatus 33 and analyzing the obtained image. The arm / base transformation matrix M 3 is acquired by using the 3D model 15c of the robot 31 and the joint angle information. The arm marker transformation matrix M 4 is acquired by unknown or by the design value of the jig for attaching the target marker 32 to the robot 31.

なお、本実施例では、各座標系の原点、座標系の向き、座標変換を上述のように設定しているが、この例に限らない。 In this embodiment, the origin of each coordinate system, the direction of the coordinate system, and the coordinate transformation are set as described above, but the present invention is not limited to this example.

(要件入力装置4)
要件入力装置4では、作業者は、作業内容やワークの種類などの顧客要件を入力する。これにより、撮像システム構築装置2は、撮像システムに必要な計測精度、キャリブレーション精度、コスト、ロボット31の動作範囲や撮像装置33の取り付け可能な空間などのシステム要件を取得することができる。
(Requirement input device 4)
In the requirement input device 4, the worker inputs customer requirements such as work contents and work type. As a result, the image pickup system construction device 2 can acquire system requirements such as measurement accuracy, calibration accuracy, cost, operating range of the robot 31, and a space in which the image pickup device 33 can be attached, which are necessary for the image pickup system.

図5Aと図5Bは、要件入力装置4の画面表示部の画面例である。ここでは、要件入力装置4として、一般的なノートPCを使用している。顧客要件調査を担当する作業者は、顧客先で画面に表示された内容に沿ってヒアリングを行うことで、容易に顧客要件を調査することができる。以降、要件入力装置4の詳細を説明する。 5A and 5B are screen examples of the screen display unit of the requirement input device 4. Here, a general notebook PC is used as the requirement input device 4. The worker in charge of the customer requirement investigation can easily investigate the customer requirement by conducting a hearing according to the contents displayed on the screen at the customer's site. Hereinafter, the details of the requirement input device 4 will be described.

要件入力装置4に入力する顧客要件の一例として、図5Aの入力画面41のように、使用するロボット31の種類、デパレタイズやピースピッキングなど作業内容の種類、ダンボールや木箱などワークの種類、ワークの大きさや形状、予算や目標とするピッキングの作業時間等がある。これらの顧客要件を、要件入力装置4を介して、撮像システム構築装置2の要件受付部20に出力することで、要件受付部20は撮像システムに必要なシステム要件を現実装置計画部21や仮想校正評価部22へと出力することができる。例えば、ワークが荷物台に積まれた複数の大型のダンボールであれば、画角が広い撮像装置33を選定する必要があるため、必要な画角の情報をシステム要件として現実装置計画部21へと出力する。加えて、顧客要件として、作業内容がピッキング、エンドエフェクタが吸着ハンドであることを要件受付部20に出力することで、吸着ハンドの吸着面とダンボールの把持面の面積を比較し、把持に必要な計測精度とキャリブレーション精度のシステム要件を現実装置計画部21と仮想校正評価部22へと出力する。 As an example of customer requirements to be input to the requirement input device 4, as shown in the input screen 41 of FIG. 5A, the type of robot 31 to be used, the type of work content such as depalletization and piece picking, the type of work such as cardboard and wooden box, and the work. There are size and shape of the robot, budget and target picking work time. By outputting these customer requirements to the requirement reception unit 20 of the image pickup system construction device 2 via the requirement input device 4, the requirement reception unit 20 outputs the system requirements necessary for the image pickup system to the actual device planning unit 21 or virtual. It can be output to the calibration evaluation unit 22. For example, if the work is a plurality of large cardboard boxes loaded on a luggage rack, it is necessary to select an image pickup device 33 having a wide angle of view. Is output. In addition, as a customer requirement, by outputting to the requirement reception unit 20 that the work content is picking and the end effector is a suction hand, the areas of the suction surface of the suction hand and the gripping surface of the cardboard are compared, and it is necessary for gripping. The system requirements for measurement accuracy and calibration accuracy are output to the actual device planning unit 21 and the virtual calibration evaluation unit 22.

また、図5Aの入力画面42のように、入力する顧客要件には、ロボット31を導入する工場内で、撮像装置33を設置可能な空間等がある。工場の設計情報に基づき3次元空間を生成し、ロボットを一台、もしくは複数設置し、その周辺で撮像装置33を設置可能な空間を指定することで、撮像装置33の取り付け範囲のシステム要件を現実装置計画部21へと出力することができる。取り付け範囲は、単なる直方体のような空間の指定、もしくは複雑な形状でもよい。 Further, as shown in the input screen 42 of FIG. 5A, the customer requirement for input includes a space in which the image pickup device 33 can be installed in the factory where the robot 31 is introduced. By creating a three-dimensional space based on the design information of the factory, installing one or more robots, and specifying the space where the image pickup device 33 can be installed around it, the system requirements of the mounting range of the image pickup device 33 can be specified. It can be output to the actual device planning unit 21. The mounting range may be a space designation such as a simple rectangular parallelepiped, or a complicated shape.

さらに、図5Bの入力画面43のように、顧客要件として工場内もしくはロボット31の周辺における設置物や障害物を登録しても良い。また、現状の設備に限らず将来的に設置を見込む設備でもよい。この顧客要件を要件受付部20に入力することで、設置物や障害物が原因で撮像装置33により撮影した画像にワークやロボット31が映らない事態を事前に防止する。また、情報秘匿の観点から撮影不可の領域や物がある場合は、同様に撮影不可の物体として登録することで、撮像範囲に関するシステム要件を現実装置計画部21へ出力することができる。 Further, as shown in the input screen 43 of FIG. 5B, installation objects and obstacles in the factory or in the vicinity of the robot 31 may be registered as customer requirements. Further, the equipment is not limited to the current equipment, and may be equipment that is expected to be installed in the future. By inputting this customer requirement into the requirement reception unit 20, it is possible to prevent the work or the robot 31 from appearing in the image taken by the image pickup apparatus 33 due to an installed object or an obstacle in advance. Further, when there is an area or an object that cannot be photographed from the viewpoint of information confidentiality, the system requirements regarding the imaging range can be output to the actual device planning unit 21 by similarly registering the object as an object that cannot be photographed.

また、図5Bの入力画面44のように、照明や窓など光源の位置を顧客要件として入力してもよい。3次元計測可能な撮像装置33の一部は、照明などが発する光によって正確に計測ができないものがある。顧客要件として光源の登録を行うことで、照明が強く当たる空間では、撮像装置33として照明光に強い種類の機種を選択したり、反射光が入り込まないよう撮像装置33の位置や取付角度を設定したりするシステム要件を現実装置計画部21へ出力することができる。 Further, as in the input screen 44 of FIG. 5B, the position of a light source such as a lighting or a window may be input as a customer requirement. Some of the image pickup devices 33 capable of three-dimensional measurement cannot be accurately measured due to the light emitted by lighting or the like. By registering the light source as a customer requirement, in a space where the lighting is strong, select a model that is strong against the illumination light as the image pickup device 33, and set the position and mounting angle of the image pickup device 33 so that the reflected light does not enter. It is possible to output the system requirements to be performed to the actual device planning unit 21.

(現実装置計画部21)
現実装置計画部21では、要件入力装置4から入力されたシステム要件に基づき、現実装置3のうち、撮像装置33とターゲットマーカ32の仕様と配置をシミュレータ上で決定する。
(Reality Equipment Planning Department 21)
The actual device planning unit 21 determines the specifications and arrangement of the image pickup device 33 and the target marker 32 among the actual devices 3 on the simulator based on the system requirements input from the requirement input device 4.

図6は、現実装置計画部21のブロック構成図である。ここに示すように、現実装置計画部21は、要件データベース21aと、撮像装置データベース21bと、撮像装置選定部21cと、撮像装置配置決定部21dと、マーカ選定部21fと、マーカ配置決定部21gと、ハードウェア配置情報21hと、を有する。以下、順次説明する。 FIG. 6 is a block configuration diagram of the actual device planning unit 21. As shown here, the actual device planning unit 21 includes a requirement database 21a, an image pickup device database 21b, an image pickup device selection unit 21c, an image pickup device placement determination unit 21d, a marker selection unit 21f, and a marker placement determination unit 21g. And the hardware arrangement information 21h. Hereinafter, they will be described in sequence.

要件データベース21aは、要件受付部20より出力されたシステム要件としてピッキング作業に必要な計測精度やキャリブレーション精度、コスト、ピッキングの作業時間、ロボット31の動作範囲や撮像装置33の取り付け可能な空間等を保持する。撮像装置データベース21bは、複数の撮像装置33の夫々について撮影方式、画角、動作距離、精度、解像度、設計情報、保護等級等の情報を格納する。撮像装置選定部21cは、要件データベース21aと撮像装置データベース21bに基づき、価格やピッキングの作業時間の要件を満たし、取り付け可能な空間においてピッキングに必要な計測精度を持つ撮像装置33を選定する。撮像装置配置決定部21dは、撮像装置33を取り付け可能な領域のうち、既存の設備を活用して取り付け可能な位置や姿勢、もしくは選定された撮像装置33が最も精度よく計測できる取り付け位置と姿勢を決定する。 The requirement database 21a is a system requirement output from the requirement reception unit 20, such as measurement accuracy and calibration accuracy required for picking work, cost, picking work time, operating range of the robot 31, and space in which the image pickup device 33 can be attached. To hold. The image pickup device database 21b stores information such as a shooting method, an angle of view, an operating distance, accuracy, a resolution, design information, and a protection grade for each of the plurality of image pickup devices 33. Based on the requirement database 21a and the image pickup device database 21b, the image pickup device selection unit 21c selects an image pickup device 33 that satisfies the requirements of price and picking work time and has the measurement accuracy required for picking in an attachable space. The image pickup device arrangement determination unit 21d is located in a position or posture in which the image pickup device 33 can be mounted by utilizing existing equipment, or a mounting position and posture in which the selected image pickup device 33 can be measured most accurately. To decide.

マーカ選定部21fは、選定した撮像装置33の撮影画像を解析したときに精度よく検出可能なターゲットマーカをマーカデータベース21eより選定する。マーカ配置決定部21gは、ロボット31の形状や作業範囲、周辺環境などからターゲットマーカ32の取り付け位置を決定する。 The marker selection unit 21f selects a target marker that can be accurately detected when the captured image of the selected image pickup apparatus 33 is analyzed from the marker database 21e. The marker placement determination unit 21g determines the mounting position of the target marker 32 based on the shape and working range of the robot 31, the surrounding environment, and the like.

ハードウェア配置情報21hは、選定した撮像装置33とターゲットマーカ32の種類と配置を保持する。 The hardware arrangement information 21h holds the types and arrangements of the selected image pickup apparatus 33 and the target marker 32.

また、現実装置計画部21には、過去の案件における現実装置3の構成を保持する現実装置構成データベースを追加し、上記した撮像装置選定部21c、撮像装置配置決定部21d、マーカ選定部21f、マーカ配置決定部21gと接続することで、現実装置3の構成を決定しても良い。 Further, the actual device configuration database that holds the configuration of the actual device 3 in the past project is added to the actual device planning unit 21, and the above-mentioned image pickup device selection unit 21c, image pickup device arrangement determination unit 21d, marker selection unit 21f, and so on. The configuration of the actual device 3 may be determined by connecting to the marker arrangement determination unit 21g.

なお、本実施例では自動で撮像装置33とターゲットマーカ32の仕様と配置情報を決定したが、撮像装置33とターゲットマーカ32の種類と配置についてシステム要件を満たす複数の候補を格納し、ユーザに提示することで比較検討するための現実装置提示部と、決定後にハードウェア配置情報21hに反映する現実装置決定部を設けても良い。 In this embodiment, the specifications and arrangement information of the image pickup device 33 and the target marker 32 are automatically determined. However, a plurality of candidates satisfying the system requirements for the type and arrangement of the image pickup device 33 and the target marker 32 are stored in the user. A real device presentation unit for comparison and examination by presenting and a real device determination unit to be reflected in the hardware arrangement information 21h after the determination may be provided.

(仮想校正評価部22)
仮想校正評価部22では、現実装置3を仮想的にシミュレータ上に生成し、アルゴリズムに基づきキャリブレーション用のデータを仮想的に生成し、データを用いてキャリブレーションを実施した結果、精度が十分であるか評価を行う。
(Virtual Calibration Evaluation Unit 22)
The virtual calibration evaluation unit 22 virtually generates the actual device 3 on the simulator, virtually generates calibration data based on the algorithm, and performs calibration using the data. As a result, the accuracy is sufficient. Evaluate if there is.

図7は、仮想校正評価部22のブロック構成図である。ここに示すように、仮想校正評価部22は、仮想装置生成部22aと、校正方式決定部22bと、生成ロジックデータベース22cと、校正用パラメータ生成部22dと、仮想校正用パラメータ22eと、仮想校正データ生成部22fと、仮想校正データ22gと、仮想校正実行部22hと、校正精度評価部22iと、上記した3Dモデル15cと、を有する。以下、順次説明する。 FIG. 7 is a block configuration diagram of the virtual calibration evaluation unit 22. As shown here, the virtual calibration evaluation unit 22 includes a virtual device generation unit 22a, a calibration method determination unit 22b, a generation logic database 22c, a calibration parameter generation unit 22d, a virtual calibration parameter 22e, and virtual calibration. It has a data generation unit 22f, a virtual calibration data 22g, a virtual calibration execution unit 22h, a calibration accuracy evaluation unit 22i, and the above-mentioned 3D model 15c. Hereinafter, they will be described in sequence.

仮想装置生成部22aは、現実装置計画部21が出力したハードウェア配置情報21hを、記憶装置15に記憶した3Dモデル15cを用いて、シミュレータ上に仮想的に生成する。校正方式決定部22bは、システム要件にて必要なキャリブレーション精度からキャリブレーションの手法を選択する。校正用パラメータ生成部22dは、キャリブレーションに用いるロボット31の姿勢群の指令値を生成するアルゴリズムを複数格納する生成ロジックデータベース22cから姿勢群の指令値を生成するアルゴリズムを定め、アルゴリズムに基づきロボット31の姿勢群の指令値である仮想校正用パラメータ22eを生成する。 The virtual device generation unit 22a virtually generates the hardware arrangement information 21h output by the real device planning unit 21 on the simulator using the 3D model 15c stored in the storage device 15. The calibration method determination unit 22b selects a calibration method from the calibration accuracy required by the system requirements. The calibration parameter generation unit 22d defines an algorithm for generating the command value of the posture group from the generation logic database 22c that stores a plurality of algorithms for generating the command value of the posture group of the robot 31 used for calibration, and the robot 31 is based on the algorithm. The virtual calibration parameter 22e, which is the command value of the posture group of, is generated.

仮想校正データ生成部22fは、仮想校正用パラメータ22eに基づきシミュレータ上のロボット31を移動させた時の姿勢値と撮影データを含む仮想校正データ22gを生成する。 The virtual calibration data generation unit 22f generates virtual calibration data 22g including posture values and shooting data when the robot 31 on the simulator is moved based on the virtual calibration parameter 22e.

仮想校正実行部22hは、仮想校正データ22gよりキャリブレーションを実行し、基部・カメラ変換行列Mを推定する。校正精度評価部22iは、推定した基部・カメラ変換行列Mとシミュレータ設計時の真値を比較し、キャリブレーションの精度がシステム要件を満たすか評価する。 The virtual calibration execution unit 22h executes calibration from the virtual calibration data 22g, and estimates the base / camera conversion matrix M1. The calibration accuracy evaluation unit 22i compares the estimated base / camera transformation matrix M 1 with the true value at the time of simulator design, and evaluates whether the calibration accuracy satisfies the system requirements.

なお、複数のキャリブレーション方法を、ユースケース別に保持する校正方式DBを作成し、校正方式決定部22bにてキャリブレーション方式の決定に用いても良い。同様に、校正方式決定部22bでは複数の校正方法を画面上に提示し、ユーザが選択するようにしても良い。 A calibration method DB that holds a plurality of calibration methods for each use case may be created and used by the calibration method determination unit 22b to determine the calibration method. Similarly, the calibration method determination unit 22b may present a plurality of calibration methods on the screen and allow the user to select them.

また、生成ロジックデータベース22cはキャリブレーションに用いるロボット31の姿勢群の指令値を生成するロジックを複数格納していたが、これを姿勢群DBとして姿勢群の指令値そのものを校正用パラメータ生成部22dで取得しても良い。 Further, the generation logic database 22c stores a plurality of logics for generating the command value of the posture group of the robot 31 used for calibration, but this is used as the posture group DB and the command value of the posture group itself is used as the calibration parameter generation unit 22d. You may get it at.

また、校正方式決定部22bと校正用パラメータ生成部22dから、複数のキャリブレーション手法とロボット31の姿勢群の指令値を生成するアルゴリズムの組み合わせについてそれぞれ仮想校正データ生成部22f、仮想校正実行部22h、校正精度評価部22iでの処理を実施し、各組合せのキャリブレーションの精度とキャリブレーションに要する時間をユーザに提示することで、システム要件を満たすキャリブレーション方式とロボット31の姿勢群の指令値の生成アルゴリズムの組を選択するようしても良い。 Further, the virtual calibration data generation unit 22f and the virtual calibration execution unit 22h are used for the combination of the plurality of calibration methods and the algorithm for generating the command value of the posture group of the robot 31 from the calibration method determination unit 22b and the calibration parameter generation unit 22d, respectively. , The calibration accuracy evaluation unit 22i performs the processing, and by presenting the calibration accuracy of each combination and the time required for calibration to the user, the calibration method satisfying the system requirements and the command value of the posture group of the robot 31. You may choose a set of generation algorithms for.

(校正データ取得部25)
図8は、校正データ取得部25の処理を示すフローチャートである。この処理は、キャリブレーションに必要なロボット31の姿勢値と、撮像装置33により撮影する画像の複数の組を含む校正データ26を取得する処理であり、本実施例では、ロボット31と画像の組をN組取得するものとする。
(Proofreading data acquisition unit 25)
FIG. 8 is a flowchart showing the processing of the calibration data acquisition unit 25. This process is a process of acquiring the calibration data 26 including the posture value of the robot 31 required for calibration and a plurality of sets of images captured by the image pickup device 33. In this embodiment, the set of the robot 31 and the image is acquired. Shall be acquired in N sets.

まず、S1では、ステップ総数Nおよびロボット31の姿勢群の指令値を校正用パラメータ24より取得し、S2では、ステップ数iを1に設定する。 First, in S1, the total number of steps N and the command value of the posture group of the robot 31 are acquired from the calibration parameter 24, and in S2, the number of steps i is set to 1.

次に、S3では、i番目(1番目)の姿勢群の指令値によりロボット31の姿勢を制御し、S4では、そのロボット31を、撮像装置33で撮影する。 Next, in S3, the posture of the robot 31 is controlled by the command value of the i-th (first) posture group, and in S4, the robot 31 is photographed by the image pickup device 33.

S5では、撮影データを解析することでターゲットマーカ32の検出が可能か判定する。本来は仮想校正評価部22によるシミュレータ上で、すべてのステップにおいてターゲットマーカ32が検出できるロボット姿勢の指令値のみが適用されることが望ましいが、シミュレータと現実の環境の差異によって、検出不可能となる場合がある。 In S5, it is determined whether the target marker 32 can be detected by analyzing the shooting data. Originally, it is desirable that only the command value of the robot posture that can be detected by the target marker 32 is applied on the simulator by the virtual calibration evaluation unit 22, but it cannot be detected due to the difference between the simulator and the actual environment. May be.

S5で、ターゲットマーカ32が検出不可(図中No)と判定された場合は、S6で、現在の姿勢を不適切姿勢データベース25aに格納した後、S7で、ステップ数iを1増やしてから、S3に戻る。 If it is determined in S5 that the target marker 32 cannot be detected (No in the figure), the current posture is stored in the inappropriate posture database 25a in S6, and then the number of steps i is increased by 1 in S7. Return to S3.

一方、S5で、ターゲットマーカ32が検出可能(図中Yes)と判定された場合は、S8では、撮影データを解析することで、マーカ・カメラ変換行列Mを推定し、S9では、画像とマーカ・カメラ変換行列Mと基部・アーム変換行列Mを校正データ26に格納する。 On the other hand, when it is determined in S5 that the target marker 32 can be detected (Yes in the figure), the marker / camera transformation matrix M2 is estimated by analyzing the shooting data in S8, and the image and the image in S9. The marker / camera transformation matrix M 2 and the base / arm transformation matrix M 3 are stored in the calibration data 26.

そして、S10では、全ステップが終了したか判定する。全ステップが終了していない場合(図中No)は、S7で、ステップ数を1増やしてから、S3に戻る。一方、全ステップ終了した場合(図中Yes)は、校正データ取得部25の処理を終了する。 Then, in S10, it is determined whether all the steps have been completed. If all the steps have not been completed (No in the figure), the number of steps is increased by 1 in S7, and then the process returns to S3. On the other hand, when all the steps are completed (Yes in the figure), the processing of the calibration data acquisition unit 25 is completed.

(校正評価部28)
校正評価部28では、校正実行部27にて現実装置3でキャリブレーションを実施した校正結果のログデータよりキャリブレーションの精度を推定する。
(Proofreading evaluation unit 28)
The calibration evaluation unit 28 estimates the calibration accuracy from the log data of the calibration result obtained by the calibration execution unit 27 performing the calibration with the actual device 3.

図9に、校正評価部28のブロック構成図を示す。ここに示すように、校正評価部28は、校正結果28aと、校正評価28bと、校正精度推定部28cと、誤差推定部28dと、評価動作実行部28eと、を有する。 FIG. 9 shows a block configuration diagram of the calibration evaluation unit 28. As shown here, the calibration evaluation unit 28 includes a calibration result 28a, a calibration evaluation 28b, a calibration accuracy estimation unit 28c, an error estimation unit 28d, and an evaluation operation execution unit 28e.

校正結果28aには、校正実行部27のキャリブレーションの結果として、基部・カメラ変換行列Mと、キャリブレーションに使用した画像、ロボット31の姿勢値であるアーム・基部変換行列Mなどのログデータを含む。また、校正評価28bは、キャリブレーションの精度を保持する。 In the calibration result 28a, as a result of the calibration of the calibration execution unit 27, a log of the base / camera conversion matrix M 1 , the image used for the calibration, the arm / base conversion matrix M 3 which is the posture value of the robot 31, and the like. Includes data. Further, the calibration evaluation 28b maintains the accuracy of calibration.

校正精度推定部28cは、校正結果28aを用いてキャリブレーションにより推定した基部・カメラ変換行列Mの精度を推定する。誤差推定部28dは、基部・カメラ変換行列Mの誤差の大きさを推定する。評価動作実行部28eは、キャリブレーションの精度を評価するための動作を生成し評価する。 The calibration accuracy estimation unit 28c estimates the accuracy of the base / camera transformation matrix M1 estimated by calibration using the calibration result 28a. The error estimation unit 28d estimates the magnitude of the error of the base / camera transformation matrix M1. The evaluation operation execution unit 28e generates and evaluates an operation for evaluating the accuracy of calibration.

この校正評価部28では、撮像システムを新規に構築するキャリブレーションの実施後に、校正精度推定部28c、誤差推定部28d、評価動作実行部28eのいずれか、もしくは複数を実施する。以降では、校正精度推定部28c、誤差推定部28d、評価動作28eについて詳細に説明する。 The calibration evaluation unit 28 implements one or a plurality of calibration accuracy estimation unit 28c, error estimation unit 28d, and evaluation operation execution unit 28e after performing calibration for newly constructing an imaging system. Hereinafter, the calibration accuracy estimation unit 28c, the error estimation unit 28d, and the evaluation operation 28e will be described in detail.

<<校正精度推定部28c>>
図10は、校正精度推定部28cによる、キャリブレーション精度の推定処理の一例を示すフローチャートである。
<< Calibration accuracy estimation unit 28c >>
FIG. 10 is a flowchart showing an example of calibration accuracy estimation processing by the calibration accuracy estimation unit 28c.

まず、S11では、校正精度推定部28cは、キャリブレーションで推定した基部・カメラ変換行列Mとアーム・マーカ変換行列Mを、校正結果28aから取得する。また、S12では、校正データ取得部25にて収集した各ステップのアーム・基部変換行列Mとマーカ・カメラ変換行列Mを、校正データ26から取得する。 First, in S11, the calibration accuracy estimation unit 28c acquires the base / camera conversion matrix M 1 and the arm / marker transformation matrix M 4 estimated by calibration from the calibration result 28a. Further, in S12, the arm / base conversion matrix M 3 and the marker / camera conversion matrix M 2 of each step collected by the calibration data acquisition unit 25 are acquired from the calibration data 26.

その後、S13では、キャリブレーションにて得た基部・カメラ変換行列Mと、各ステップのアーム・基部変換行列Mとマーカ・カメラ変換行列Mを用いて、各ステップにおけるアーム・マーカ変換行列Mを計算する。そして、S14では、i=1~Nの全ステップにおけるアーム・マーカ変換行列Mの分散を算出し評価値として出力する。 After that, in S13, the base / camera transformation matrix M 1 obtained by calibration, the arm / base transformation matrix M 3 of each step, and the marker / camera transformation matrix M 2 are used, and the arm / marker transformation matrix in each step is used. Calculate M4 . Then, in S14, the variance of the arm - marker transformation matrix M4 in all steps of i = 1 to N is calculated and output as an evaluation value.

上記のS13において、基部・カメラ変換行列Mの回転行列をRcr、並進行列をtcr、iステップ目のマーカ・カメラ変換行列Mの回転行列をRmci、並進行列をtmci、iステップ目のアーム・基部変換行列Mの回転行列をRari、並進行列をtariとしたき、iステップ目のアーム・マーカ変換行列Mの回転行列Ramiと並進行列tamiは以下のように計算される。 In S13 above, the rotation matrix of the base / camera conversion matrix M 1 is R cr , the parallel traveling matrix is t cr , the rotation matrix of the marker / camera conversion matrix M 2 at the i-step is R mci , and the parallel traveling matrix is t mci , i. Let R ari be the rotation matrix of the arm / base conversion matrix M3 of the step , and tari be the parallel progression matrix. Is calculated as

Figure 2022006427000003
Figure 2022006427000003

このようにしてS14にて全ステップにおけるアーム・マーカ変換行列Mの分散を算出したが、アーム・マーカ変換行列Mは本来ステップ毎に値が変動しないため、分散値の大きさにより各パラメータの推定精度の評価が可能である。 In this way, the variance of the arm-marker transformation matrix M4 in all steps was calculated in S14, but since the value of the arm-marker transformation matrix M4 does not originally fluctuate for each step, each parameter depends on the magnitude of the variance value. It is possible to evaluate the estimation accuracy of.

<<誤差推定部28d>>
図11は、誤差推定部28dによる、誤差推定処理の一例を示すフローチャートである。
<< Error estimation unit 28d >>
FIG. 11 is a flowchart showing an example of error estimation processing by the error estimation unit 28d.

まず、S15では、キャリブレーションで推定した基部・カメラ変換行列Mの各軸のパラメータD(x,y,z,r,r,r)を、校正結果28aから取得する。また、S16では、キャリブレーションを実行した際に得られる評価関数fを校正結果28aから取得する。 First, in S15, the parameters D (x, y , z, r x , ry, r z ) of each axis of the base / camera transformation matrix M 1 estimated by the calibration are acquired from the calibration result 28a. Further, in S16, the evaluation function f obtained when the calibration is executed is acquired from the calibration result 28a.

その後、S17では、評価関数fの二階微分値を各軸において計算し、S18では、二階微分値より各軸方向に対して評価関数fの感度を推定する。最後に、S19では、評価関数fの感度により各軸の精度を評価し出力する。 After that, in S17, the second-order differential value of the evaluation function f is calculated for each axis, and in S18, the sensitivity of the evaluation function f is estimated from the second-order differential value in each axial direction. Finally, in S19, the accuracy of each axis is evaluated and output by the sensitivity of the evaluation function f.

ここで、S18において、dxを微小な値としたとき、x軸における評価関数fの二階微分値を取得する例を以下に示す。 Here, an example of acquiring the second derivative value of the evaluation function f on the x-axis when dx is a minute value in S18 is shown below.

Figure 2022006427000004
Figure 2022006427000004

なお、式3では、位置成分のパラメータD(x,y,z)を評価しているが、姿勢成分のパラメータD(r,r,r)など別の指標を評価指標としてもよい。 In Equation 3, the parameter D (x, y, z) of the position component is evaluated, but another index such as the parameter D (r x , ry, r z ) of the posture component may be used as the evaluation index. ..

<<評価動作実行部28e>>
図12は、評価動作実行部28eが、現実装置3を動作させることで、キャリブレーションの精度を求める処理の一例を示すフローチャートである。
<< Evaluation operation execution unit 28e >>
FIG. 12 is a flowchart showing an example of a process in which the evaluation operation execution unit 28e operates the actual device 3 to obtain the accuracy of calibration.

まず、S20では、校正結果28aを用いてロボット31上のターゲットマーカ32を撮像装置33の光軸上など任意の点Aに移動させる。次に、S21では、撮像装置33にターゲットマーカ32を撮影させる。その後、S22では、撮像データを解析することでマーカ・カメラ変換行列Mを推定し、S23で、推定結果と点Aの真値を比較することで精度を算出する。 First, in S20, the target marker 32 on the robot 31 is moved to an arbitrary point A such as on the optical axis of the image pickup device 33 by using the calibration result 28a. Next, in S21, the image pickup device 33 is made to take an image of the target marker 32. After that, in S22, the marker-camera transformation matrix M2 is estimated by analyzing the imaging data, and in S23, the accuracy is calculated by comparing the estimation result with the true value of the point A.

なお、ロボット31の手先を空間中の物体に接触させることでズレの評価を行う、もしくは撮像装置33によりターゲットマーカ32を撮影することで得られた画像と、校正結果28aを参照して現在のロボット31の姿勢における理想の画像を生成し差分の評価を行う、もしくはロボット31を動作させ任意の位置に移動できるか評価する、など、精度を評価するために現実装置3を動作させるものであれば、評価動作実行部28eでの処理内容は、図12の例に限らない。 It should be noted that the current image obtained by evaluating the deviation by bringing the hand of the robot 31 into contact with an object in space or by photographing the target marker 32 with the image pickup device 33 and the calibration result 28a are referred to. Whether the actual device 3 is operated to evaluate the accuracy, such as generating an ideal image in the posture of the robot 31 and evaluating the difference, or operating the robot 31 to evaluate whether it can be moved to an arbitrary position. For example, the processing content of the evaluation operation execution unit 28e is not limited to the example of FIG.

(要件フィードバック部29)
要件フィードバック部29は、キャリブレーションの精度がシステム要件を満たしていない場合、仮想校正評価部22で使用されるキャリブレーションの姿勢群の指令値生成のロジックを切り替える機能、もしくは、追加の姿勢の指令値を生成する追加要件を出力する機能、現実装置計画部21に撮像装置33の仕様や配置の変更を追加要件として出力する機能、顧客先で構築した撮像システムを使用したピッキング作業の実施中に作業が失敗したとき、キャリブレーションを実施する必要があるか判定し、必要があれば再度実施するよう追加要件を出力する機能、等を有する。
(Requirement feedback section 29)
The requirement feedback unit 29 has a function of switching the logic for generating a command value of the calibration posture group used in the virtual calibration evaluation unit 22 when the calibration accuracy does not meet the system requirements, or a command of an additional posture. A function to output additional requirements to generate values, a function to output changes in the specifications and arrangement of the image pickup device 33 to the actual device planning unit 21 as additional requirements, and during picking work using the image pickup system built by the customer. It has a function to determine whether calibration needs to be performed when the work fails, and to output additional requirements to perform calibration again if necessary.

図13は、要件フィードバック部29の一例を示す機能ブロック図である。ここに示すように、要件フィードバック部29は、精度充足判定部29aと、仮想装置変更要件生成部29bと、精度不足原因推定部29cと、追加要件生成部29dと、ロボット作業実行部29fと、再校正実施評価部29eと、を備える。 FIG. 13 is a functional block diagram showing an example of the requirement feedback unit 29. As shown here, the requirement feedback unit 29 includes an accuracy satisfaction determination unit 29a, a virtual device change requirement generation unit 29b, an accuracy shortage cause estimation unit 29c, an additional requirement generation unit 29d, and a robot work execution unit 29f. It is equipped with a recalibration implementation evaluation unit 29e.

精度充足判定部29aは、校正精度評価部22iにて推定したキャリブレーション精度が、システム要件を満たしているか判定する。 The accuracy sufficiency determination unit 29a determines whether the calibration accuracy estimated by the calibration accuracy evaluation unit 22i satisfies the system requirements.

仮想装置変更要件生成部29bは、キャリブレーション精度がシステム要件を満たす場合に、シミュレータ上の仮想装置の配置を、実機によりキャリブレーションして求めた校正データ26の値に基づいて修正し、キャリブレーション用のロボット31の姿勢群の指令値である校正用パラメータ24から不適切姿勢データベース25aに登録された姿勢を削除するよう指示を生成する。 When the calibration accuracy meets the system requirements, the virtual device change requirement generation unit 29b corrects the arrangement of the virtual device on the simulator based on the value of the calibration data 26 obtained by calibrating with the actual machine, and calibrates. An instruction is generated to delete the posture registered in the inappropriate posture database 25a from the calibration parameter 24 which is the command value of the posture group of the robot 31 for the robot 31.

精度不足原因推定部29cは、キャリブレーション精度がシステム要件を満たさない場合に、その原因を推定する。追加要件生成部29dは、精度が不足した原因より、シミュレータに対してシステム要件を満たすために必要な追加要件を生成する。 The accuracy estimation unit 29c estimates the cause when the calibration accuracy does not meet the system requirements. The additional requirement generation unit 29d generates additional requirements necessary for satisfying the system requirements for the simulator due to the cause of insufficient accuracy.

ロボット作業実行部29fは、一度撮像システムの構築を完了した後、現実装置3のロボット31を用いて顧客要件である作業内容を実施させる。再校正実施評価部29eは、ロボット作業実行部29fにて作業内容が失敗したときに、再度キャリブレーションを実施する必要があるか判定し、必要ある場合は要件受付部20にキャリブレーションを実施する追加要件を生成し、シミュレータにフィードバックする。 After the robot work execution unit 29f completes the construction of the image pickup system once, the robot 31 of the actual device 3 is used to carry out the work content required by the customer. The recalibration implementation evaluation unit 29e determines whether it is necessary to perform calibration again when the work content fails in the robot work execution unit 29f, and if necessary, performs calibration in the requirement reception unit 20. Generate additional requirements and feed them back to the simulator.

以降では、精度不足原因推定部29c、追加要件生成部29d、再校正実施評価部29eについて詳細に説明する。 Hereinafter, the accuracy shortage cause estimation unit 29c, the additional requirement generation unit 29d, and the recalibration implementation evaluation unit 29e will be described in detail.

<<精度不足原因推定部29c>>
図14に、精度不足原因推定部29cの機能ブロック図を示す。ここに示すように、精度不足原因推定部29cは、現実装置配置検証部29c1と、校正用パラメータ検証部29c2と、現実装置仕様検証部29c3と、を有する。
<< Insufficient accuracy cause estimation unit 29c >>
FIG. 14 shows a functional block diagram of the accuracy shortage cause estimation unit 29c. As shown here, the accuracy shortage cause estimation unit 29c includes a real device arrangement verification unit 29c1, a calibration parameter verification unit 29c2, and a real device specification verification unit 29c3.

現実装置配置検証部29c1では、現実装置3の配置が原因で精度の不足が生じたか検証する。具体的には、現実装置計画部21による現実装置3の配置と、校正データ26による現実装置3の配置に乖離がある場合に、現実装置3の配置に原因があると推定する。また、撮像装置33により取得した撮像データと、仮想校正評価部22で生成した仮想撮像データを比較することで、シミュレータにより生成した現実装置3の配置が、実際の配置と大きくずれているか確認してもよい。 The actual device arrangement verification unit 29c1 verifies whether or not the accuracy is insufficient due to the arrangement of the actual device 3. Specifically, when there is a discrepancy between the arrangement of the actual device 3 by the actual device planning unit 21 and the arrangement of the actual device 3 by the calibration data 26, it is estimated that the cause is the arrangement of the actual device 3. Further, by comparing the imaging data acquired by the imaging device 33 with the virtual imaging data generated by the virtual calibration evaluation unit 22, it is confirmed whether the arrangement of the actual device 3 generated by the simulator is significantly different from the actual arrangement. You may.

校正用パラメータ検証部29c2では、校正用パラメータ24が原因で精度の不足が生じたか検証する。具体的には、不適切姿勢データベース25aにおいてターゲットマーカ32を検出できないロボット31の姿勢がある場合に、不適切データベース25aの姿勢を削除した仮想校正データ22gより、仮想的にキャリブレーションを行い、精度の確認を行う。その結果、精度が一定値以上低下した場合は、ロボット31の姿勢群である校正用パラメータ24に原因があると推定する。 The calibration parameter verification unit 29c2 verifies whether the accuracy is insufficient due to the calibration parameter 24. Specifically, when there is a posture of the robot 31 in which the target marker 32 cannot be detected in the inappropriate posture database 25a, the virtual calibration data 22g in which the posture of the inappropriate database 25a is deleted is virtually calibrated for accuracy. Confirm. As a result, if the accuracy drops by a certain value or more, it is presumed that the cause is the calibration parameter 24, which is the posture group of the robot 31.

現実装置仕様検証部29c3では、現実装置3の故障や不具合が原因で精度の不足が生じたか検証する。具体的には、不適切姿勢データベース25aの数が大半を占めており、ターゲットマーカ32を全く検出できない場合は、撮像装置33が故障している、もしくは撮像装置33のレンズに汚れが生じている、もしくはターゲットマーカ32が破損している、もしくは現実装置が全く想定と異なる場所に設置されていると判断する。撮像装置33の故障もしくは汚れを検証するため、撮像装置33より3次元計測を行い、視野中心で有効な3次元情報が取得できない場合は、撮像装置33が原因であると推定する。視野中心で有効な3次元情報が得られた場合は、ターゲットマーカ32の破損および現実装置3の配置に大きな誤りがあると推定する。 The actual device specification verification unit 29c3 verifies whether or not the accuracy is insufficient due to a failure or malfunction of the actual device 3. Specifically, if the number of inappropriate posture databases 25a occupies the majority and the target marker 32 cannot be detected at all, the image pickup device 33 is out of order or the lens of the image pickup device 33 is dirty. Or, it is determined that the target marker 32 is damaged or the actual device is installed in a place completely different from the assumption. In order to verify the failure or dirt of the image pickup device 33, three-dimensional measurement is performed from the image pickup device 33, and if valid three-dimensional information cannot be obtained at the center of the visual field, it is presumed that the image pickup device 33 is the cause. When valid three-dimensional information is obtained at the center of the visual field, it is presumed that the target marker 32 is damaged and the actual device 3 is misaligned.

<<追加要件生成部29d>>
図15は、追加要件生成部29dの処理を示すフローチャートである。ここに示すように、まず、S24では、精度不足原因推定部29cが推定した精度不足原因が現実装置3の配置不良であるか確認する。そして、現実装置3の配置不良が原因である場合は(図中Yes)、S25に進み、現実装置3の配置を、現実装置計画部21にて選定した配置に合わせるようユーザに提示する追加要件を生成する。一方、現実装置3の配置が原因でない場合は(図中No)、S26に進み、精度不足原因推定部29cが推定した精度不足原因が、校正用パラメータ24の不良であるか確認する。
<< Additional requirement generation unit 29d >>
FIG. 15 is a flowchart showing the processing of the additional requirement generation unit 29d. As shown here, first, in S24, it is confirmed whether the cause of the lack of accuracy estimated by the accuracy estimation unit 29c is a misplacement of the actual device 3. Then, if the cause is a misplacement of the real device 3 (Yes in the figure), the process proceeds to S25, and an additional requirement is presented to the user to match the layout of the real device 3 with the layout selected by the real device planning unit 21. To generate. On the other hand, if the cause is not the arrangement of the actual device 3 (No in the figure), the process proceeds to S26, and it is confirmed whether the cause of the lack of accuracy estimated by the accuracy estimation unit 29c is a defect of the calibration parameter 24.

そして、校正用パラメータ24が原因でない場合は、S27に進み、撮像装置33で3次元計測が可能かの判定結果を確認する。計測可能であれば(図中Yes)、S28に進み、ターゲットマーカ32の破損や現実装置3の配置に誤りがないか確認する追加要件を生成する。一方、計測可能でなければ(図中No)、S29に進み、撮像装置33の故障やレンズの汚れを確認する追加要件を生成する。 Then, if the calibration parameter 24 is not the cause, the process proceeds to S27, and the determination result of whether the three-dimensional measurement is possible with the image pickup apparatus 33 is confirmed. If it is measurable (Yes in the figure), the process proceeds to S28 to generate an additional requirement for confirming whether the target marker 32 is damaged or the actual device 3 is arranged correctly. On the other hand, if it is not measurable (No in the figure), the process proceeds to S29 to generate an additional requirement for confirming a failure of the image pickup apparatus 33 or a stain on the lens.

一方、校正用パラメータ24が原因の場合は、S30に進み、不適切姿勢の数が全姿勢の数に対して少ないかを判定する。そして、少なければ(図中Yes)、S31に進み、不適切姿勢を削除して、撮像装置33により障害物などが周辺にあるか確認し、不適切姿勢周辺かつ障害物が存在しない空間でロボット31の姿勢の指令値を生成するよう追加要件を生成する。一方、不適切姿勢の数が少なくなければ(図中No)、S32に進み、姿勢群の指令値を生成するアルゴリズムを変更する追加要件を生成する。 On the other hand, if the cause is the calibration parameter 24, the process proceeds to S30 to determine whether the number of inappropriate postures is smaller than the number of all postures. Then, if the number is small (Yes in the figure), the process proceeds to S31, the inappropriate posture is deleted, the image pickup device 33 confirms whether there are obstacles or the like in the vicinity, and the robot is located around the inappropriate posture and in a space where there are no obstacles. Generate additional requirements to generate command values for 31 attitudes. On the other hand, if the number of inappropriate postures is not small (No in the figure), the process proceeds to S32, and an additional requirement for changing the algorithm for generating the command value of the posture group is generated.

そして、S25,S28,S29,S31,S32の何れかの処理を終えたときに、図15の処理を終了する。 Then, when any of the processes of S25, S28, S29, S31, and S32 is completed, the process of FIG. 15 is completed.

<<再校正実施評価部29e>>
続いて、再校正実施評価部29eについて説明する。再校正実施評価部29eは、撮像システム構築後、ロボット作業実行部29fにて、ピッキング作業が失敗した時に呼び出され、キャリブレーションを再度実行する必要があるか判定を行う。本実施例では、評価動作実行部28eのように校正精度を評価する動作を現実装置3に行わせることで、ロボット31や撮像装置33の位置関係にずれがあるか判定する、もしくは校正結果に基づきシミュレータ上の仮想装置で撮影した画像と、現実装置で撮影した画像が乖離しているは判定する、もしくは失敗時の撮像データと、過去の撮像データに乖離がある場合は再度キャリブレーションを行う追加要件を生成する。画像が乖離しているか否かは、機械学習などにより判定できる。
<< Recalibration Implementation Evaluation Unit 29e >>
Subsequently, the recalibration implementation evaluation unit 29e will be described. After the image pickup system is constructed, the recalibration execution evaluation unit 29e is called by the robot work execution unit 29f when the picking operation fails, and determines whether or not the calibration needs to be executed again. In this embodiment, by causing the actual device 3 to perform an operation of evaluating the calibration accuracy as in the evaluation operation execution unit 28e, it is determined whether or not there is a deviation in the positional relationship between the robot 31 and the image pickup device 33, or the calibration result is determined. Based on this, it is determined whether the image taken by the virtual device on the simulator and the image taken by the real device are different, or if there is a difference between the imaged data at the time of failure and the past imaged data, calibration is performed again. Generate additional requirements. Whether or not the images are dissociated can be determined by machine learning or the like.

以上の構成により、現実装置3による撮像システムの評価を、シミュレータにフィードバックすることにより、キャリブレーションの姿勢群の指令値生成のロジックを切り替える、もしくは追加の姿勢の指令値を生成する追加要件を出力することで再度キャリブレーションを実行させる、もしくは撮像方法を修正するようユーザに提示することが可能となる。例として、ロボット31により顧客要件の作業内容を実施中に、撮像装置33やワークを意図的にずらし作業を失敗させることで、再度キャリブレーションを実施する、もしくは撮像方法を修正するような画面出力を確認することができる。 With the above configuration, by feeding back the evaluation of the imaging system by the actual device 3 to the simulator, the logic for generating the command value of the calibration posture group is switched, or the additional requirement for generating the command value of the additional posture is output. By doing so, it is possible to re-calibrate or present the user to correct the imaging method. As an example, while the robot 31 is performing the work content of the customer requirement, the image pickup device 33 or the work is intentionally shifted to cause the work to fail, so that calibration is performed again or the image pickup method is modified. Can be confirmed.

(撮像システム構築装置2の動作の具体例)
次に、本実施例の撮像システム構築装置2の動作の具体例として、追加要件をシミュレータにフィードバックする動作を示す。まず、作業者により要件入力装置4から顧客要件が入力され、要件受付部20で顧客要件に基づき推定されたシステム要件から現実装置計画部21と仮想校正評価部22を実施する。その後、校正用パラメータ生成部23にて20個のロボット31の姿勢群の指令値を生成し、校正データ取得部25での処理を実施する。
(Specific example of operation of image pickup system construction device 2)
Next, as a specific example of the operation of the image pickup system construction device 2 of this embodiment, an operation of feeding back additional requirements to the simulator will be shown. First, the customer requirements are input from the requirement input device 4 by the worker, and the real device planning unit 21 and the virtual calibration evaluation unit 22 are implemented from the system requirements estimated based on the customer requirements by the requirement reception unit 20. After that, the calibration parameter generation unit 23 generates command values for the posture groups of the 20 robots 31, and the calibration data acquisition unit 25 performs processing.

ところが、顧客の環境が動的に変化する案件などで、キャリブレーション作業時にロボット31周辺に未知の障害物が生じた場合には、ロボット31が指令値へと移動できないケースが一部発生し、このときの指令値が不適切姿勢データベース25aに格納される。本ケースでは4つの姿勢が不適切姿勢データベース25aに登録されているとする。続けて、校正データ取得部25にて正常に取得された校正データ26を使用して、校正実行部27にてキャリブレーションが実行される。校正評価部28によりキャリブレーションの精度を推定し、要件フィードバック部29では精度充足判定部29aにて精度がシステム要件を満たすか判定を行う。 However, when an unknown obstacle occurs around the robot 31 during calibration work due to a case where the customer's environment changes dynamically, there are some cases where the robot 31 cannot move to the command value. The command value at this time is stored in the inappropriate posture database 25a. In this case, it is assumed that four postures are registered in the inappropriate posture database 25a. Subsequently, the calibration is executed by the calibration execution unit 27 using the calibration data 26 normally acquired by the calibration data acquisition unit 25. The calibration evaluation unit 28 estimates the accuracy of calibration, and the requirement feedback unit 29 determines whether the accuracy satisfies the system requirements by the accuracy satisfaction determination unit 29a.

このとき、キャリブレーション精度がシステム要件を満たさない場合は、精度不足原因推定部29cが実行される。精度不足原因推定部29cでは、はじめに現実装置配置検証部29c1が実行される。現実装置配置検証部29c1では現実装置3による撮影データと仮想装置による仮想撮影データを比較する。この比較により、現実装置3が原因でないと判定された場合は、校正用パラメータ検証部29c2での検証処理が実行される。校正用パラメータ検証部29c2では、不適切姿勢データベース25aを参照し、不適切姿勢を除いたロボット31の姿勢群の指令値により、仮想校正評価部22と同様、仮想的にキャリブレーションを実行する。 At this time, if the calibration accuracy does not satisfy the system requirements, the accuracy shortage cause estimation unit 29c is executed. In the accuracy shortage cause estimation unit 29c, the actual device placement verification unit 29c1 is first executed. The real device arrangement verification unit 29c1 compares the shooting data by the real device 3 with the virtual shooting data by the virtual device. If it is determined by this comparison that the cause is not the actual device 3, the verification process by the calibration parameter verification unit 29c2 is executed. The calibration parameter verification unit 29c2 refers to the inappropriate posture database 25a and virtually executes calibration according to the command value of the posture group of the robot 31 excluding the inappropriate posture, as in the virtual calibration evaluation unit 22.

この結果、4つの不適切姿勢を除いた姿勢群によるキャリブレーションではシステム要件を満たさない場合は、校正用パラメータ24を変更する必要があるとして、追加要件生成部29dが呼び出される。追加要件生成部29dでは、校正用パラメータ24が原因であるため、不適切姿勢の数を検証し、この例のように全指令値のうち少数の姿勢のみが不適切姿勢として不適切姿勢データベース25aに格納される場合は、不適切姿勢データベース25a中の指令値を校正用パラメータ24から削除し、撮像装置33により障害物などが周辺にあるか確認することで障害物がある空間を推定する。そして、不適切姿勢周辺かつ障害物が存在しない空間でロボット31の姿勢の指令値を再度生成するよう追加要件を生成し、要件受付部20へとフィードバックすることで、仮想校正評価部22によりキャリブレーションのパラメータを生成するアルゴリズムを変更させ、再度生成された校正用パラメータ24によるキャリブレーションが実行される。以上の処理によって、システム要件を満たす撮像装置の構築が完了する。 As a result, if the calibration by the posture group excluding the four inappropriate postures does not satisfy the system requirements, the additional requirement generation unit 29d is called because it is necessary to change the calibration parameter 24. Since the calibration parameter 24 is the cause, the additional requirement generation unit 29d verifies the number of inappropriate postures, and as in this example, only a small number of the postures among all the command values are regarded as inappropriate postures, and the inappropriate posture database 25a. When it is stored in, the command value in the inappropriate posture database 25a is deleted from the calibration parameter 24, and the space with the obstacle is estimated by confirming whether there is an obstacle or the like in the vicinity by the image pickup device 33. Then, an additional requirement is generated so as to regenerate the command value of the posture of the robot 31 around the inappropriate posture and in a space where there is no obstacle, and the feedback is fed back to the requirement reception unit 20 to be calibrated by the virtual calibration evaluation unit 22. The algorithm for generating the parameters of the motion is changed, and the calibration with the calibration parameter 24 generated again is executed. The above processing completes the construction of an imaging device that meets the system requirements.

以上の撮像システム構築装置2により、ロボット31、ターゲットマーカ32、撮像装置33を含む現実装置3とシミュレータを活用し、ピッキング作業の成功が保証できる撮像装置33の選定・配置とキャリブレーション時のロボット31の姿勢群に関するパラメータを自動で策定し、現実装置によるキャリブレーションの評価から、撮像システムを高度化するための追加要件をシミュレータにフィードバックすることで、キャリブレーションを自動的に再度実行する、もしくは撮像方法を修正する指示を作業者に提示することを可能とし、最適な撮像システムの構築を容易にできる。 With the above image pickup system construction device 2, the robot at the time of selection / arrangement and calibration of the image pickup device 33 that can guarantee the success of the picking work by utilizing the actual device 3 including the robot 31, the target marker 32, and the image pickup device 33 and the simulator. By automatically formulating the parameters related to the 31 posture groups and feeding back the additional requirements for upgrading the imaging system from the evaluation of the calibration by the actual device to the simulator, the calibration is automatically executed again, or It is possible to present an instruction to modify the imaging method to the operator, and it is possible to easily construct an optimum imaging system.

さらに、要件入力装置4から、作業内容やワークの種類などの顧客要件を入力することで、撮像システムに必要な計測精度、キャリブレーション精度、コスト、ロボット31の動作範囲や撮像装置33の取り付け可能な空間を含むシステム要件が推定できる。 Further, by inputting customer requirements such as work content and work type from the requirement input device 4, it is possible to mount the measurement accuracy, calibration accuracy, cost, operating range of the robot 31 and the image pickup device 33 required for the image pickup system. System requirements including various spaces can be estimated.

さらに、現実装置計画部21では、現実装置の3次元情報や性能の情報を有するシミュレータにより、入力されたシステム要件を満たす現実装置の仕様と配置の決定に要する工数を低減できる。 Further, the real device planning unit 21 can reduce the man-hours required for determining the specifications and arrangement of the real device that satisfies the input system requirements by the simulator having the three-dimensional information and the performance information of the real device.

さらに、仮想校正評価部22により、現実装置計画部21で決定した現実装置の仕様と配置に基づきシミュレータ上に仮想装置を生成できる。また、キャリブレーション時のロボット31の姿勢群の指令値を、シミュレータ上の指令値生成アルゴリズムに基づき生成し、仮想装置によるキャリブレーションを実施し、キャリブレーション結果によるロボット・センサ間の相対的な位置と姿勢の推定パラメータを、仮想装置生成時の真値と比較することでキャリブレーションの精度を確認することができる。 Further, the virtual calibration evaluation unit 22 can generate a virtual device on the simulator based on the specifications and arrangement of the actual device determined by the actual device planning unit 21. In addition, the command value of the posture group of the robot 31 at the time of calibration is generated based on the command value generation algorithm on the simulator, calibration is performed by the virtual device, and the relative position between the robot and the sensor based on the calibration result. The accuracy of calibration can be confirmed by comparing the estimation parameters of the posture with the true values at the time of virtual device generation.

以上の現実装置計画部21と仮想校正評価部22とを含むシミュレータにより、ピッキング作業の成功を保証できる現実装置の仕様と配置、およびキャリブレーション用のロボット31の姿勢群の指令値の決定とを含む撮像システムの構築に要する工数を削減できる。 With the simulator including the actual device planning unit 21 and the virtual calibration evaluation unit 22, the specifications and arrangement of the actual device that can guarantee the success of the picking work, and the determination of the command value of the posture group of the robot 31 for calibration are determined. The man-hours required to construct the including imaging system can be reduced.

さらに、校正評価部28では、現実装置によりキャリブレーションを実施したときの推定精度を評価できる。 Further, the calibration evaluation unit 28 can evaluate the estimation accuracy when the calibration is performed by the actual device.

なお、本来、シミュレータに基づき構築した撮像システムによりシステム要件を満たすことが望ましいが、シミュレータと現実の差異により、キャリブレーション精度が低下する恐れがある。そこで、要件フィードバック部29では、現実装置3によるキャリブレーション評価がシステム要件を満たすか判定し、システム要件を満たさない場合は、その原因を推定する機能を有する。また、原因がキャリブレーションの姿勢群の指令値である場合、シミュレータに、キャリブレーションの姿勢群の指令値生成のアルゴリズムを切り替える、もしくは追加のロボット31の姿勢の指令値を生成する追加要件を出力することで、再度キャリブレーションを実行させることを可能とする。また、現実装置が原因である場合、シミュレータに撮像装置33の仕様や配置の変更を追加要件として出力しシミュレータ上で表示することで、ユーザが現実装置の故障、配置の不備などを点検することを可能とする。また、顧客先にて、構築した撮像システムを使用したピッキング作業の実施中に作業が失敗したとき、キャリブレーションを実施する必要があるか判定し、必要があれば再度実施するよう追加要件を出力することで、再度キャリブレーションを実行する機能を有する。 Originally, it is desirable to meet the system requirements with an imaging system constructed based on the simulator, but there is a risk that the calibration accuracy will decrease due to the difference between the simulator and the actual situation. Therefore, the requirement feedback unit 29 has a function of determining whether the calibration evaluation by the actual device 3 satisfies the system requirement, and if the calibration evaluation does not satisfy the system requirement, estimates the cause. If the cause is the command value of the calibration posture group, the simulator is switched with the algorithm for generating the command value of the calibration posture group, or an additional requirement for generating the command value of the posture of the additional robot 31 is output. By doing so, it is possible to execute the calibration again. In addition, when the cause is a real device, the user can check the failure of the real device, improper placement, etc. by outputting the change of the specification and arrangement of the image pickup device 33 to the simulator as an additional requirement and displaying it on the simulator. Is possible. In addition, if the customer fails to perform the picking work using the built imaging system, it is determined whether calibration needs to be performed, and if necessary, additional requirements are output to perform it again. By doing so, it has a function to execute calibration again.

以上で説明したように、本実施例の撮像システム構築装置により、顧客要件を満たす撮像システムの構築に要する工数を低減できる。 As described above, the image pickup system construction apparatus of this embodiment can reduce the man-hours required for constructing an image pickup system that meets customer requirements.

(変形例1)
図16のように、ロボット31のアーム31hに撮像装置33を取り付けし、周辺に設置したターゲットマーカを現実装置として、撮像システムを構築してもよい。また、現実装置計画部21に、撮像装置取り付け方式選定部を追加して、撮像装置33をロボット上に設置するか、周辺に設置するか選択するようにしてもよい。
(Modification 1)
As shown in FIG. 16, the image pickup device 33 may be attached to the arm 31h of the robot 31, and the image pickup system may be constructed using the target markers installed in the vicinity as a real device. Further, an image pickup device mounting method selection unit may be added to the actual device planning unit 21 to select whether to install the image pickup device 33 on the robot or in the vicinity.

1:制御装置
2:撮像システム構築装置
2A:撮像システム計画ユニット
20:要件受付部
21:現実装置計画部
22:仮想校正評価部
23:校正用パラメータ生成部
24:校正用パラメータ
2B:撮像システム評価ユニット
25:校正データ取得部
26:校正データ
27:校正実行部
28:校正評価部
29:要件フィードバック部
3:現実装置
31 ロボットアーム
32 ターゲットマーカ
33 撮像装置
4:要件入力装置
1: Control device 2: Imaging system construction device 2A: Imaging system planning unit 20: Requirements reception unit 21: Real equipment planning unit 22: Virtual calibration evaluation unit 23: Calibration parameter generation unit 24: Calibration parameter 2B: Imaging system evaluation Unit 25: Calibration data acquisition unit 26: Calibration data 27: Calibration execution unit 28: Calibration evaluation unit 29: Requirements feedback unit 3: Actual device 31 Robot arm 32 Target marker 33 Imaging device 4: Requirements input device

Claims (10)

ロボットの周辺環境の推定に用いる撮像システムの構築を補助する撮像システム構築装置であって、
前記撮像システムは、
ロボットと3次元位置を取得するための参照物を撮像する撮像装置と、
前記ロボットの基部座標系と前記撮像装置のカメラ座標系の変換に用いる基部・カメラ変換行列と、を含み、
前記撮像システム構築装置は、
前記撮像システムのシステム要件を満たす前記撮像装置と前記参照物の仕様と配置、および、前記撮像装置と前記ロボットの校正用パラメータを計画する撮像システム計画ユニットと、
該撮像システム計画ユニットが計画した、前記ロボットと前記参照物と前記撮像装置からなる現実装置により、校正の精度を評価する撮像システム評価ユニットと、
該撮像システム評価ユニットが評価した、前記校正の精度が前記システム要件を満たさない場合、前記システム要件を満たすために必要な追加要件を、前記撮像システム計画ユニットにフィードバックすることで、前記校正の再実行、もしくは、前記現実装置の再構築を可能とする要件フィードバック部と、
を備えることを特徴とする撮像システム構築装置。
An imaging system construction device that assists in the construction of an imaging system used to estimate the surrounding environment of a robot.
The imaging system is
An image pickup device that captures a robot and a reference object for acquiring a three-dimensional position,
The base coordinate system of the robot and the base / camera conversion matrix used for conversion of the camera coordinate system of the image pickup apparatus are included.
The image pickup system construction device is
An imaging system planning unit that plans the specifications and arrangement of the imaging device and the reference object that satisfy the system requirements of the imaging system, and calibration parameters of the imaging device and the robot.
An imaging system evaluation unit that evaluates the accuracy of calibration by a real device including the robot, the reference object, and the imaging device, which is planned by the imaging system planning unit.
If the accuracy of the calibration evaluated by the imaging system evaluation unit does not meet the system requirements, the additional requirements necessary to meet the system requirements are fed back to the imaging system planning unit to re-calibrate the calibration. A requirement feedback unit that enables execution or reconstruction of the actual device,
An imaging system construction device characterized by being equipped with.
請求項1に記載の撮像システム構築装置において、
前記撮像システム計画ユニットは、
前記撮像装置の性能情報を保有するデータベースに基づき、前記システム要件を満たす前記撮像装置の仕様や配置を計画する現実装置計画部を備えることを特徴とする撮像システム構築装置。
In the image pickup system construction apparatus according to claim 1,
The imaging system planning unit is
An image pickup system construction device comprising a real device planning unit that plans specifications and arrangement of the image pickup device that satisfies the system requirements based on a database that holds performance information of the image pickup device.
請求項2に記載の撮像システム構築装置において、
前記現実装置計画部は、
前記システム要件に基づいて前記撮像装置の仕様を決定する撮像装置選定部と、
前記撮像装置の配置を決定する撮像装置配置決定部と、
前記参照物を選定するマーカ選定部と、
前記参照物の前記ロボットへの取り付け位置を決定するマーカ配置決定部と、
を備えることを特徴とする撮像システム構築装置。
In the image pickup system construction apparatus according to claim 2,
The reality equipment planning department
An image pickup device selection unit that determines the specifications of the image pickup device based on the system requirements, and
An image pickup device arrangement determination unit that determines the arrangement of the image pickup device, and
A marker selection unit that selects the reference material, and
A marker placement determination unit that determines the mounting position of the reference object on the robot, and
An imaging system construction device characterized by being equipped with.
請求項1に記載の撮像システム構築装置において、
前記撮像システム計画ユニットは、
前記現実装置の3次元情報を保有するデータベースに基づき、シミュレータ上に仮想装置を生成し、該仮想装置を動作させることで校正用データを生成し、校正を実施することで精度の評価を行う仮想校正評価部を備えることを特徴とする撮像システム構築装置。
In the image pickup system construction apparatus according to claim 1,
The imaging system planning unit is
Based on the database that holds the three-dimensional information of the actual device, a virtual device is generated on the simulator, calibration data is generated by operating the virtual device, and accuracy is evaluated by performing calibration. An imaging system construction device characterized by having a calibration evaluation unit.
請求項4に記載の撮像システム構築装置において、
前記仮想校正評価部は、
前記現実装置の3次元モデルに基づいてシミュレータ上に仮想装置を生成する仮想装置生成部と、
前記システム要件に基づいて校正方式を決定する校正方式決定部と、
校正に用いるロボットの姿勢の校正用パラメータを生成する校正用パラメータ生成部と、
指令値に基づいて前記仮想装置を動作させ、校正用のデータを仮想的に生成する仮想校正データ生成部と、
仮想的に校正を行う仮想校正実行部と、
校正結果とシミュレータ生成時の真値の差が前記システム要件を満たすか評価する校正精度評価部と、
を備えることを特徴とする撮像システム構築装置。
In the image pickup system construction apparatus according to claim 4,
The virtual calibration evaluation unit
A virtual device generation unit that generates a virtual device on the simulator based on the three-dimensional model of the real device,
A calibration method determination unit that determines the calibration method based on the system requirements,
A calibration parameter generator that generates calibration parameters for the posture of the robot used for calibration,
A virtual calibration data generation unit that operates the virtual device based on a command value and virtually generates calibration data,
A virtual calibration execution unit that virtually calibrates,
A calibration accuracy evaluation unit that evaluates whether the difference between the calibration result and the true value at the time of simulator generation meets the system requirements.
An imaging system construction device characterized by being equipped with.
請求項5に記載の撮像システム構築装置において、
前記校正用パラメータ生成部は、
前記ロボットの姿勢群の指令値を生成するアルゴリズムを複数有する生成ロジックデータベースを備えることを特徴とする撮像システム構築装置。
In the image pickup system construction apparatus according to claim 5.
The calibration parameter generation unit is
An imaging system construction device comprising a generation logic database having a plurality of algorithms for generating command values of the posture group of the robot.
請求項5に記載の撮像システム構築装置において、
前記撮像システム評価ユニットは、
前記校正用パラメータに基づいて前記現実装置を動作させることで校正用データを収集する校正データ取得部と、
収集した校正用データにより校正を実行する校正実行部と、
校正結果を用いて校正の精度を評価する校正評価部と、
を備えることを特徴とする撮像システム構築装置。
In the image pickup system construction apparatus according to claim 5.
The imaging system evaluation unit is
A calibration data acquisition unit that collects calibration data by operating the actual device based on the calibration parameters.
A calibration execution unit that executes calibration using the collected calibration data,
A calibration evaluation unit that evaluates the accuracy of calibration using the calibration results,
An imaging system construction device characterized by being equipped with.
請求項7に記載の撮像システム構築装置において、
前記校正評価部は、
校正結果のログデータに基づいて校正の精度を評価する校正精度推定部と、
校正結果のログデータに基づいて誤差を推定する誤差推定部と、
前記現実装置を用いて評価のための動作を生成し、実行することで精度を評価する評価動作実行部と、
を備えることを特徴とする撮像システム構築装置。
In the image pickup system construction apparatus according to claim 7.
The calibration evaluation unit
A calibration accuracy estimation unit that evaluates the accuracy of calibration based on the log data of the calibration result,
An error estimation unit that estimates the error based on the log data of the calibration result,
An evaluation operation execution unit that evaluates accuracy by generating and executing an operation for evaluation using the actual device, and
An imaging system construction device characterized by being equipped with.
請求項1に記載の撮像システム構築装置において、
前記要件フィードバック部は、
校正の精度がシステム要件を満たすか判定を行う精度充足判定部と、
精度が不足した場合にその原因を特定する精度不足原因推定部と、
特定された原因により撮像システムがシステム要件を満たすために必要な追加要件を生成する追加要件生成部と、
を備えることを特徴とする撮像システム構築装置。
In the image pickup system construction apparatus according to claim 1,
The requirement feedback section is
An accuracy sufficiency judgment unit that determines whether the calibration accuracy meets the system requirements,
Insufficient accuracy cause estimation unit that identifies the cause when accuracy is insufficient,
An additional requirement generator that generates the additional requirements that the imaging system needs to meet the system requirements due to the identified cause,
An imaging system construction device characterized by being equipped with.
請求項1に記載の撮像システム構築装置において、
前記要件フィードバック部は、
顧客要件に基づく作業内容を前記現実装置に実施させるロボット作業実行部と、
作業に失敗したときに再校正を行う必要があるか判定し、必要な場合は前記撮像システム計画ユニットに校正を実施する追加要件を送信する再校正実施評価部と、
を備えることを特徴とする撮像システム構築装置。
In the image pickup system construction apparatus according to claim 1,
The requirement feedback section is
A robot work execution unit that causes the actual device to perform work content based on customer requirements,
A recalibration implementation evaluation unit that determines whether recalibration is necessary when the work fails and, if necessary, sends additional requirements for calibration to the imaging system planning unit.
An imaging system construction device characterized by being equipped with.
JP2020108638A 2020-06-24 2020-06-24 Imaging system construction device Pending JP2022006427A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020108638A JP2022006427A (en) 2020-06-24 2020-06-24 Imaging system construction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020108638A JP2022006427A (en) 2020-06-24 2020-06-24 Imaging system construction device

Publications (1)

Publication Number Publication Date
JP2022006427A true JP2022006427A (en) 2022-01-13

Family

ID=80110799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020108638A Pending JP2022006427A (en) 2020-06-24 2020-06-24 Imaging system construction device

Country Status (1)

Country Link
JP (1) JP2022006427A (en)

Similar Documents

Publication Publication Date Title
CN106873550B (en) Simulation device and simulation method
Tavares et al. Collaborative welding system using BIM for robotic reprogramming and spatial augmented reality
JP4171488B2 (en) Offline programming device
JP7362146B2 (en) Machine vision-based method and system for measuring 3D pose of a part or subassembly
CN109153125A (en) For orienting the method and industrial robot of industrial robot
JP6080407B2 (en) Three-dimensional measuring device and robot device
US9482754B2 (en) Detection apparatus, detection method and manipulator
JP3225635B2 (en) Construction support device and method
CN113172659B (en) Flexible robot arm shape measuring method and system based on equivalent center point identification
CN113070876A (en) Manipulator dispensing path guiding and deviation rectifying method based on 3D vision
Boby Identification of elasto-static parameters of an industrial robot using monocular camera
JP6825026B2 (en) Information processing equipment, information processing methods and robot systems
CN115841516A (en) Method and device for modeling dynamic intrinsic parameters of camera
KR101972432B1 (en) A laser-vision sensor and calibration method thereof
JP2022006427A (en) Imaging system construction device
CN112743548A (en) Method, system and terminal for unifying hand-eye calibration of two mechanical arms
KR20200127751A (en) System and method for teaching sealing robots
JP7366264B2 (en) Robot teaching method and robot working method
Brecher et al. 3D assembly group analysis for cognitive automation
CN114918916A (en) Production monitoring method based on intelligent manufacturing
US20220402141A1 (en) Method and apparatus for calibrating position of robot using 3d scanner
JP7437343B2 (en) Calibration device for robot control
US20220219328A1 (en) Method and device for creation of three dimensional tool frame
WO2024009767A1 (en) Calibration execution device, calibration system and method, and program
Di Stefano et al. A multi-camera framework for visual servoing of a collaborative robot in industrial environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401