WO2021176902A1 - Learning processing device, device and method for robot control, and program - Google Patents

Learning processing device, device and method for robot control, and program Download PDF

Info

Publication number
WO2021176902A1
WO2021176902A1 PCT/JP2021/002976 JP2021002976W WO2021176902A1 WO 2021176902 A1 WO2021176902 A1 WO 2021176902A1 JP 2021002976 W JP2021002976 W JP 2021002976W WO 2021176902 A1 WO2021176902 A1 WO 2021176902A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
correlation information
learning
robot
camera
Prior art date
Application number
PCT/JP2021/002976
Other languages
French (fr)
Japanese (ja)
Inventor
洋貴 鈴木
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2021176902A1 publication Critical patent/WO2021176902A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Provided are a device and a method for executing robot control processing and learning processing using phase-only correlation information. This invention involves a phase-only correlation information calculation unit which generates phase-only correlation information between a camera-captured image and a model image. A learned model is generated, which receives input of the phase-only correlation information and outputs a control parameter used to control the position of an object captured in the camera-captured image. This invention provides a robot control device which uses the generated learned model to execute robot control. The phase-only correlation information between the camera-captured image of an object taken by the robot and the model image in which the object is arranged at an ideal position is input to the learned model, and a control parameter target value obtained as output from the learned model is used to control the robot.

Description

学習処理装置、ロボット制御装置、および方法、並びにプログラムLearning processing equipment, robot control equipment, and methods, and programs
 本開示は、学習処理装置、ロボット制御装置、および方法、並びにプログラムに関する。具体的にはロボットを利用して部品を所定位置に装着するための学習処理や、ロボット制御処理を行う学習処理装置、ロボット制御装置、および方法、並びにプログラムに関する。 The present disclosure relates to learning processing devices, robot control devices, methods, and programs. Specifically, the present invention relates to a learning process for mounting a component in a predetermined position using a robot, a learning process device for performing a robot control process, a robot control device, a method, and a program.
 近年、ロボットを用いて様々な製品の組み立てを行う製造工場が急激に増加しており、工場では、従来、人が行っていた作業の多くをロボットが行うようになっている。 In recent years, the number of manufacturing factories that assemble various products using robots has increased rapidly, and in factories, robots are now performing most of the work that was conventionally performed by humans.
 工場内のロボットが行なう処理(タスク)は様々であるが、その一例として以下の処理がある。
 ロボットが、P1地点で物体aを取得し、取得した物体をP2地点へ移動させる。さらに取得した物体aを、P2地点に置かれている別の物体bへ装着するといった処理を実行する。
 このような処理(タスク)は、例えば工場内のアームロボットを用いた作業自動化において重要なタスクである。
There are various processes (tasks) performed by robots in factories, and one example is the following process.
The robot acquires the object a at the P1 point and moves the acquired object to the P2 point. Further, the acquired object a is attached to another object b located at the P2 point, and the like is executed.
Such processing (task) is an important task in, for example, work automation using an arm robot in a factory.
 ロボットに上記のような処理を正確に実行させるためには、ロボットの動きを高精度に制御する必要がある。この制御アルゴリズムを構築する一つの手法として学習処理が利用される。
 例えば、ロボットに装着された、あるいは作業場所の特定位置に固定されたカメラによる撮影画像を解析する学習処理を行うことで、例えば上記のような処理(タスク)の自動化を実現するためのアルゴリズムを構築することができる。
In order for the robot to accurately execute the above processing, it is necessary to control the movement of the robot with high accuracy. Learning processing is used as one method for constructing this control algorithm.
For example, by performing learning processing that analyzes images taken by a camera mounted on a robot or fixed at a specific position in a work place, for example, an algorithm for realizing automation of the above processing (task) can be used. Can be built.
 しかし、学習処理には、多くのサンプルデータ、例えば様々な異なる設定の撮影画像を入力して、多数の画像を解析することが必要となり、所定の時間、労力を要する。 However, the learning process requires inputting a large amount of sample data, for example, captured images with various different settings, and analyzing a large number of images, which requires a predetermined time and labor.
 例えば、取得対象となる物体aの取得時の想定位置姿勢からのずれパターンが多数、存在し、さらに、物体aの装着対象となる物体bの位置や姿勢のずれのパターンも多数、存在するような場合、様々なずれパターンに対応した制御情報を生成するためには、非常に多数のサンプルデータ(カメラ撮影画像)が必要であり、学習処理にも相当の時間を要する。 For example, there are many patterns of deviation from the assumed position / orientation of the object a to be acquired at the time of acquisition, and there are also many patterns of deviation of the position and orientation of the object b to be attached to the object a. In such a case, in order to generate control information corresponding to various deviation patterns, a very large number of sample data (camera-captured images) are required, and a considerable amount of time is required for the learning process.
 なお、物体位置姿勢制御タスクをロボットに実行させるための学習処理としては、ディープニューラルネットワーク(DNN)を用いた学習処理であるディープラーニングがある。ディープラーニングを利用すれば、大量のサンプルデータを入力して、学習処理部自身が大量のデータから特徴量を自動抽出して、様々なデータに対応する最適解、例えばロボットの制御パラメータを生成することができる。 Note that there is deep learning, which is a learning process using a deep neural network (DNN), as a learning process for causing a robot to execute an object position / orientation control task. If deep learning is used, a large amount of sample data is input, and the learning processing unit itself automatically extracts the feature amount from the large amount of data to generate an optimum solution corresponding to various data, for example, a robot control parameter. be able to.
 しかし、このディープラーニングを利用するためには、予め大量のサンプルデータを準備することが必要となる。例えば上記のタスクの例では、取得対象となる物体aの取得時の想定位置姿勢からのずれパターン画像や、物体aの装着対象となる物体bの位置や姿勢のずれのパターン画像等を、多数、予め撮影することが必要となる。 However, in order to use this deep learning, it is necessary to prepare a large amount of sample data in advance. For example, in the above task example, a large number of pattern images of deviation from the assumed position / orientation at the time of acquisition of the object a to be acquired, pattern images of deviation of the position / posture of the object b to be attached to the object a, and the like are obtained. , It is necessary to take a picture in advance.
 次々と生産対象の製品の仕様が変更されるような多品種少量生産の工場現場においては、製造製品が切り替わるごとに、ロボット制御アルゴリズムを変更する必要がある。この製品切り替えごとに、上記のディープラーニングを利用した学習処理等の学習処理を行うために、多数の異なるずれ態様を示すサンプル画像データを撮影するためには膨大なに時間を要し、現実的ではなく、結果として、ロボット制御をあきらめ、人手に頼らざるを得ない状況が発生している。 At a factory site for high-mix low-volume production where the specifications of the products to be produced are changed one after another, it is necessary to change the robot control algorithm every time the manufactured products are switched. In order to perform learning processing such as learning processing using the above deep learning for each product switching, it takes an enormous amount of time to take sample image data showing a large number of different deviation modes, which is realistic. Instead, as a result, there are situations in which robot control has to be given up and relied on by human hands.
 一方、特許文献1(特開2015-102928号公報)には、ロボットの位置姿勢を検出する一手法として位相限定相関法を用いた構成を開示している。
 この手法は、オブジェクトを撮影した入力画像とテンプレート画像とを、位相限定相関法を用いて比較することで、入力画像中のオブジェクトの位置姿勢の検出を行う手法である。
On the other hand, Patent Document 1 (Japanese Unexamined Patent Publication No. 2015-102928) discloses a configuration using a phase-limited correlation method as a method for detecting the position and orientation of a robot.
This method is a method of detecting the position and orientation of an object in the input image by comparing the input image obtained by capturing the object and the template image by using the phase-limited correlation method.
 この位相限定相関法を用いた手法を適用することで、入力画像中のオブジェクトの位置姿勢を高精度に検出することができる。
 しかし、この文献には、この位相限定相関法を用いた学習処理手法や、学習結果を用いたロボット制御処理についての開示はない。
By applying the method using this phase-limited correlation method, the position and orientation of the object in the input image can be detected with high accuracy.
However, this document does not disclose the learning processing method using this phase-limited correlation method or the robot control processing using the learning result.
特開2015-102928号公報Japanese Unexamined Patent Publication No. 2015-102928
 本開示は、例えば上記問題点に鑑みてなされたものであり、ロボットを利用して部品を所定位置に装着するための学習処理や、ロボット制御処理を行う学習処理装置、ロボット制御装置、および方法、並びにプログラムを提供することを目的とする。 The present disclosure has been made in view of the above problems, for example, and is a learning process for mounting a component in a predetermined position using a robot, a learning process device for performing a robot control process, a robot control device, and a method. , As well as the purpose of providing the program.
 本開示の第1の側面は、
 カメラ撮影画像と、模範画像の画像相関情報を生成する画像相関情報算出部と、
 前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する学習処理を実行する学習処理部を有する学習処理装置にある。
The first aspect of the disclosure is
An image correlation information calculation unit that generates image correlation information between a camera-photographed image and a model image,
The learning processing apparatus has a learning processing unit that executes a learning process of inputting the image correlation information and generating a learning model that outputs control parameters for controlling the position of an object captured by the camera image.
 さらに、本開示の第2の側面は、
 ロボットの制御を行なうロボット制御部と、
 前記ロボットに取得されたオブジェクトのカメラ撮影画像と、前記オブジェクトを理想的な位置に配置した模範画像との画像相関情報を生成する画像相関情報算出部と、
 前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータ目標値を出力する学習モデルを有し、
 前記ロボット制御部は、前記学習モデルの出力である制御パラメータ目標値を利用して前記ロボットを制御するロボット制御装置にある。
Further, the second aspect of the present disclosure is
A robot control unit that controls the robot and
An image correlation information calculation unit that generates image correlation information between a camera-photographed image of an object acquired by the robot and a model image in which the object is arranged at an ideal position.
It has a learning model that inputs the image correlation information and outputs a control parameter target value for controlling the position of the object captured in the image captured by the camera.
The robot control unit is in a robot control device that controls the robot by using a control parameter target value which is an output of the learning model.
 さらに、本開示の第3の側面は、
 学習処理装置において実行する学習処理方法であり、
 画像相関情報算出部が、カメラ撮影画像と、模範画像の画像相関情報を生成する画像相関情報算出ステップと、
 学習処理部が、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する学習処理を実行するステップを有する学習処理方法にある。
Further, the third aspect of the present disclosure is
It is a learning processing method executed in the learning processing device.
The image correlation information calculation unit generates the image correlation information of the camera-captured image and the model image, and the image correlation information calculation step.
The learning processing unit has a step of executing a learning process of inputting the image correlation information and generating a learning model for outputting control parameters for controlling the position of an object captured by the camera image. ..
 さらに、本開示の第4の側面は、
 ロボット制御装置において実行するロボット制御方法であり、
 ロボット制御部が、ロボットの制御を行なうステップと、
 画像相関情報算出部が、前記ロボットに取得されたオブジェクトのカメラ撮影画像と、前記オブジェクトを理想的な位置に配置した模範画像との画像相関情報を生成する画像相関情報算出ステップと、
 学習モデルに対して、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータ目標値を出力するステップと、
 前記ロボット制御部が、前記学習モデルの出力である制御パラメータ目標値を利用して前記ロボットを再制御するロボット制御方法にある。
Further, the fourth aspect of the present disclosure is
It is a robot control method executed in a robot control device.
The steps in which the robot control unit controls the robot,
An image correlation information calculation step in which the image correlation information calculation unit generates image correlation information between the camera-photographed image of the object acquired by the robot and the model image in which the object is arranged at an ideal position.
A step of inputting the image correlation information to the learning model and outputting a control parameter target value for controlling the position of the object captured in the image captured by the camera.
The robot control unit is in a robot control method for recontrolling the robot by using a control parameter target value which is an output of the learning model.
 さらに、本開示の第5の側面は、
 学習処理装置において学習処理を実行させるプログラムであり、
 画像相関情報算出部に、カメラ撮影画像と、模範画像の画像相関情報を生成させる画像相関情報算出ステップと、
 学習処理部に、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する学習処理を実行させるステップを実行させるプログラムにある。
Further, the fifth aspect of the present disclosure is
It is a program that executes learning processing in the learning processing device.
An image correlation information calculation step that causes the image correlation information calculation unit to generate image correlation information of a camera-photographed image and a model image, and
The program has a program for executing a step of inputting the image correlation information into the learning processing unit and executing a learning process of generating a learning model that outputs control parameters for controlling the position of an object captured by the camera captured image.
 さらに、本開示の第6の側面は、
 ロボット制御装置においてロボット制御処理を実行させるプログラムであり、
 ロボット制御部に、ロボットの制御を行なわせるステップと、
 画像相関情報算出部に、前記ロボットに取得されたオブジェクトのカメラ撮影画像と、前記オブジェクトを理想的な位置に配置した模範画像との画像相関情報を生成させる画像相関情報算出ステップと、
 学習モデルに対して、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータ目標値を出力させるステップと、
 前記ロボット制御部に、前記学習モデルの出力である制御パラメータ目標値を利用して前記ロボットを再制御させるプログラムにある。
Further, the sixth aspect of the present disclosure is
A program that executes robot control processing in a robot control device.
Steps to let the robot control unit control the robot,
An image correlation information calculation step for causing the image correlation information calculation unit to generate image correlation information between the camera-photographed image of the object acquired by the robot and the model image in which the object is arranged at an ideal position.
A step of inputting the image correlation information to the learning model and outputting a control parameter target value for controlling the position of the captured object in the camera-captured image.
The program is for the robot control unit to recontrol the robot by using the control parameter target value which is the output of the learning model.
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。 The program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an information processing device or a computer system that can execute various program codes. By providing such a program in a computer-readable format, processing according to the program can be realized on an information processing device or a computer system.
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。 Still other objectives, features and advantages of the present disclosure will be clarified by more detailed description based on the examples of the present disclosure and the accompanying drawings described below. In the present specification, the system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
 本開示の一実施例の構成によれば、位相限定相関情報を利用した学習処理やロボット制御処理を実行する装置、方法が実現される。
 具体的には、例えば、カメラ撮影画像と、模範画像の位相限定相関情報を生成する位相限定相関情報算出部と、位相限定相関情報を入力し、カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する。さらに、生成した学習モデルを利用してロボット制御を行うロボット制御装置であり、ロボットに取得されたオブジェクトのカメラ撮影画像と、オブジェクトを理想的な位置に配置した模範画像との位相限定相関情報を学習モデルに入力して、学習モデルからの出力として得られる制御パラメータ目標値を利用してロボットを制御する。
 本構成により、位相限定相関情報を利用した学習処理やロボット制御処理を実行する装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
According to the configuration of one embodiment of the present disclosure, a device and a method for executing learning processing and robot control processing using phase-limited correlation information are realized.
Specifically, for example, the phase-limited correlation information calculation unit that generates the phase-limited correlation information of the camera-captured image and the model image, and the phase-limited correlation information are input to control the position of the object captured in the camera-captured image. Generate a learning model that outputs the control parameters of. Furthermore, it is a robot control device that controls the robot using the generated learning model, and provides phase-limited correlation information between the camera-captured image of the object acquired by the robot and the model image in which the object is placed at an ideal position. The robot is controlled by inputting to the learning model and using the control parameter target value obtained as the output from the learning model.
With this configuration, a device and a method for executing learning processing and robot control processing using phase-limited correlation information are realized.
The effects described in the present specification are merely exemplary and not limited, and may have additional effects.
ロボットの動作と制御処理の一例について説明する図である。It is a figure explaining an example of a robot operation and control processing. ロボットによる部品取得時の状態の例について説明する図である。It is a figure explaining the example of the state at the time of parts acquisition by a robot. ロボットによる部品装着時の状態の例について説明する図である。It is a figure explaining the example of the state at the time of mounting a part by a robot. ロボットの制御を行うための学習処理の一例について説明する図である。It is a figure explaining an example of the learning process for controlling a robot. 学習処理部に対する入力データと学習処理について説明する図である。It is a figure explaining an input data and a learning process for a learning processing part. 学習モデルを利用したロボット制御の一例について説明する図である。It is a figure explaining an example of robot control using a learning model. 位相限定相関情報(PoC情報)について説明する図である。It is a figure explaining the phase-limited correlation information (PoC information). 位相限定相関情報(PoC情報)について説明する図である。It is a figure explaining the phase-limited correlation information (PoC information). 本開示の学習処理装置の構成と処理の一例について説明する図である。It is a figure explaining an example of the structure and processing of the learning processing apparatus of this disclosure. 本開示の学習処理装置の位相限定相関情報(PoC情報)算出部の構成と処理の一例について説明する図である。It is a figure explaining an example of the structure and processing of the phase-limited correlation information (PoC information) calculation part of the learning processing apparatus of this disclosure. 本開示の学習処理装置の学習処理部の構成と処理の一例について説明する図である。It is a figure explaining an example of the structure and processing of the learning processing part of the learning processing apparatus of this disclosure. 本開示のロボット制御装置の構成と処理の一例について説明する図である。It is a figure explaining an example of the structure and processing of the robot control device of this disclosure. 学習処理における入力データと学習モデルの入出力データの例について説明する図である。It is a figure explaining the example of the input data in a learning process and the input / output data of a learning model. 本開示の学習処理装置の学習処理部の構成と処理の一例について説明する図である。It is a figure explaining an example of the structure and processing of the learning processing part of the learning processing apparatus of this disclosure. 本開示の学習処理装置の学習処理部の構成と処理の一例について説明する図である。It is a figure explaining an example of the structure and processing of the learning processing part of the learning processing apparatus of this disclosure. 学習処理に適用する位相限定相関情報(PoC情報)を生成するための画像の例について説明する図である。It is a figure explaining the example of the image for generating the phase-limited correlation information (PoC information) to apply to a learning process. 本開示の学習処理装置の学習処理部の構成と処理の一例について説明する図である。It is a figure explaining an example of the structure and processing of the learning processing part of the learning processing apparatus of this disclosure. 本開示の学習処理装置の学習処理部の構成と処理の一例について説明する図である。It is a figure explaining an example of the structure and processing of the learning processing part of the learning processing apparatus of this disclosure. 本開示のロボット制御装置の構成と処理の一例について説明する図である。It is a figure explaining an example of the structure and processing of the robot control device of this disclosure. 本開示の学習処理装置や、ロボット制御装置のハードウェア構成例について説明する図である。It is a figure explaining the hardware configuration example of the learning processing apparatus and the robot control apparatus of this disclosure.
 以下、図面を参照しながら本開示の走行ロボット、および走行ロボット制御方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.ロボット制御処理の一例について
 2.ロボット制御アルゴリズム構築のための一般的な学習処理の一例について
 3.画像間の位相限定相関情報について
 4.位相限定相関情報を用いた処理を行う本開示の学習処理装置、およびロボット制御装置について
 5.部品取得位置での撮影画像を用いた実施例について
 6.学習モデルの更新処理について
 7.学習処理装置、およびロボット制御装置のハードウェア構成例について
 8.本開示の構成のまとめ
Hereinafter, the traveling robot of the present disclosure, the traveling robot control method, and the details of the program will be described with reference to the drawings. The explanation will be given according to the following items.
1. 1. About an example of robot control processing 2. About an example of general learning processing for building a robot control algorithm 3. Phase-limited correlation information between images 4. 5. Regarding the learning processing device and the robot control device of the present disclosure that perform processing using phase-limited correlation information. About the example using the photographed image at the part acquisition position 6. About the update process of the learning model 7. About hardware configuration example of learning processing device and robot control device 8. Summary of the structure of this disclosure
  [1.ロボット制御処理の一例について]
 まず、図1以下を参照してロボット制御処理の一例について説明する。
 図1はロボット100が実行する処理の一例を示す図である。
[1. About an example of robot control processing]
First, an example of robot control processing will be described with reference to FIG. 1 and below.
FIG. 1 is a diagram showing an example of processing executed by the robot 100.
 部品ボックス10には、リング形状(中抜円盤形状)の部品20がばら積みされている。また、部品取り付けピン40がベルトコンベア30に乗せられて移動している。ベルトコンベア30は図に示す矢印方向に移動している。
 ロボット100は、部品ボックス10から部品20を取得して、ベルトコンベア30上の部品取り付けピン40に挿入する処理(タスク)を実行する。
 ロボット100のアーム先端には、吸着部101が備えられており、吸着部101の吸着動作の制御により、部品20を吸着の実行、解除を行うことができる。
Ring-shaped (hollow disk-shaped) parts 20 are piled up in bulk in the parts box 10. Further, the component mounting pin 40 is moved on the belt conveyor 30. The belt conveyor 30 is moving in the direction of the arrow shown in the figure.
The robot 100 acquires a component 20 from the component box 10 and executes a process (task) of inserting the component 20 into the component mounting pin 40 on the belt conveyor 30.
A suction unit 101 is provided at the tip of the arm of the robot 100, and the component 20 can be sucked and released by controlling the suction operation of the suction unit 101.
 ロボット100は、図に示すステップS1~S03の順に以下の処理を実行する。
 (ステップS01)
 ロボット100は、まず、ステップS01において、リング形状(中抜円盤形状)の部品20がばら積みされている部品ボックス10から、ロボット100のアーム先端に設けられた吸着部101に1つの部品20を吸着して取得する。
The robot 100 executes the following processes in the order of steps S1 to S03 shown in the figure.
(Step S01)
First, in step S01, the robot 100 sucks one part 20 from the parts box 10 in which the ring-shaped (hollow disk-shaped) parts 20 are piled up in bulk to the suction portion 101 provided at the tip of the arm of the robot 100. And get it.
  (ステップS02)
 1つの部品20を吸着したロボット100は、次にステップS02において、ロボット100のアーム(ロボットアーム)を回動し、ベルトコンベア30上を移動する部品取り付けピン40の1つのピンの真上位置まで部品20を移動させる。
(Step S02)
The robot 100 that has attracted one component 20 then rotates the arm (robot arm) of the robot 100 in step S02 to a position directly above one pin of the component mounting pin 40 that moves on the belt conveyor 30. Move the part 20.
  (ステップS03)
 次に、ロボット100は、ステップS03において、ロボット100のアーム先端の吸着部101に吸着された部品20の吸着を解除して、部品20を部品取り付けピン40のピンに装着する。
(Step S03)
Next, in step S03, the robot 100 releases the suction of the component 20 sucked by the suction portion 101 at the tip of the arm of the robot 100, and mounts the component 20 on the pin of the component mounting pin 40.
 このステップS03の処理後は、ロボット100は、ロボット100のアーム(ロボットアーム)を回動し、ステップS01の処理、すなわち、部品ボックス10から部品20を取り出す処理を行う。
 ロボット100は、上記のステップS01~S03を繰り返し実行する。
After the process of step S03, the robot 100 rotates the arm (robot arm) of the robot 100 and performs the process of step S01, that is, the process of taking out the component 20 from the component box 10.
The robot 100 repeatedly executes the above steps S01 to S03.
 上記ステップS01~S03の処理において、ロボット100に求められる動作は、ばら積み状態の部品から一つの部品20を取得する部品ピッキング(吸着)動作と、取得した部品を、ベルトコンベア30上を移動する部品取り付けピン40の1つのピンの真上位置に移動する動作と、リング形状(中抜円盤形状)の部品20の中央の穴をピン位置に合せて、その位置で部品20の吸着を解除して、部品20を部品取り付けピン40のピンに装着するという動作である。 In the processes of steps S01 to S03, the operations required of the robot 100 are a component picking operation for acquiring one component 20 from parts in a bulk state and a component for moving the acquired components on the belt conveyor 30. The operation of moving to the position directly above one pin of the mounting pin 40 and the center hole of the ring-shaped (bulk-shaped disk shape) component 20 are aligned with the pin position, and the suction of the component 20 is released at that position. , The operation is to mount the component 20 on the pin of the component mounting pin 40.
 しかし、これらの動作は、1つの部品の装着ごとに微妙に異なる動作を行うことが要求される。
 例えば、ばら積み状態の部品から一つの部品20を取得する部品ピッキング処理においては、図2に示すように、ロボット100の吸着部101と、部品20との相対位置は、様々である。すなわち、様々な異なる「ずれ」が、部品ピッキング(吸着)処理毎に発生する。
However, these operations are required to perform slightly different operations for each mounting of one component.
For example, in the part picking process for acquiring one part 20 from the parts in the bulk state, as shown in FIG. 2, the relative positions of the suction portion 101 of the robot 100 and the part 20 are various. That is, various different "deviations" occur for each component picking (adsorption) process.
 さらに、ベルトコンベア30上を移動する部品取り付けピン40の1つのピンの真上位置に移動して、リング形状(中抜円盤形状)の部品20の中央の穴をピン位置に合せて、その位置で部品20の吸着を解除して、部品20を部品取り付けピン40のピンに装着する際にも、図3に示すように、部品20の中央の穴の位置と、部品取り付けピン40の相対位置は、様々である。すなわち、様々な異なる「ずれ」が、部品装着処理毎に発生する。 Further, the component mounting pin 40 that moves on the belt conveyor 30 is moved to a position directly above one pin, and the central hole of the ring-shaped (hollow disk-shaped) component 20 is aligned with the pin position, and the position is adjusted. When the component 20 is released from the suction of the component 20 and the component 20 is mounted on the pin of the component mounting pin 40, as shown in FIG. 3, the position of the center hole of the component 20 and the relative position of the component mounting pin 40 Is various. That is, various different "deviations" occur for each component mounting process.
 従って、上記ステップS01~S03の処理を各部品に対して、正確に実行するためには、図2や図3に示すような様々な状態をすべて想定したロボット制御が必要となる。
 このような各状態に応じた異なるロボット制御を行うための処理として学習処理が有効となる。
 以下、ロボット制御のための学習処理の一例について説明する。
Therefore, in order to accurately execute the processes of steps S01 to S03 for each component, robot control assuming all various states as shown in FIGS. 2 and 3 is required.
The learning process is effective as a process for performing different robot control according to each state.
Hereinafter, an example of learning processing for robot control will be described.
  [2.ロボット制御アルゴリズム構築のための一般的な学習処理の一例について]
 次に、ロボット制御アルゴリズム構築のための一般的な学習処理の一例について説明する。
[2. About an example of general learning processing for building a robot control algorithm]
Next, an example of a general learning process for constructing a robot control algorithm will be described.
 図1を参照して説明したロボットの部品装着処理を、ミスなく高精度に実行するためには、ロボット100と部品20、および部品取り付けピン40の相対位置に応じたロボット制御を行うことが必要となる。 In order to execute the robot component mounting process described with reference to FIG. 1 with high accuracy without mistakes, it is necessary to perform robot control according to the relative positions of the robot 100, the component 20, and the component mounting pin 40. It becomes.
 すなわち、図2に示すような様々な部品装着パターンや、図3に示すような様々な部品挿入パターンに応じた各状態に固有のロボット制御を行うことが必要であり、このためには、各状態に応じた固有のロボット制御パラメータを算出することが必要となる。
 このための一手法として、カメラ撮影画像を用いた学習処理がある。
That is, it is necessary to perform robot control peculiar to each state according to various component mounting patterns as shown in FIG. 2 and various component insertion patterns as shown in FIG. It is necessary to calculate the unique robot control parameters according to the state.
As one method for this, there is a learning process using images taken by a camera.
 図4を参照して、カメラ撮影画像を用いた学習処理の一例について説明する。
 図4に示すように、カメラ120は、ロボット100が、部品20を部品取り付けピン40の上に移動させた状態の画像を撮影する。
 ロボット100はこの位置で部品20の吸着を解除して、部品20を部品取り付けピン40のピンに装着する。
An example of the learning process using the image captured by the camera will be described with reference to FIG.
As shown in FIG. 4, the camera 120 captures an image of the robot 100 moving the component 20 onto the component mounting pin 40.
At this position, the robot 100 releases the suction of the component 20 and mounts the component 20 on the pin of the component mounting pin 40.
 図4に示すように、カメラ120はカメラ撮影画像121を撮影する。カメラ撮影画像121には、部品20の一部領域の画像と、部品20の中央の穴から観察される部品取り付けピン40の一部の画像が撮影されている。
 なお、図4右上の(参考図)に示すように、カメラ撮影画像121に含まれる部品20の一部領域の画像は、部品中央部の穴とその周囲のリングの一部のみであり、部品20のリングの外周部は、図4に示すカメラ撮影画像121の周囲に存在する。
As shown in FIG. 4, the camera 120 captures the camera captured image 121. The camera-captured image 121 captures an image of a part of the component 20 and a part of the component mounting pin 40 observed from the hole in the center of the component 20.
As shown in the upper right (reference diagram) of FIG. 4, the image of a part of the part 20 included in the camera-captured image 121 is only a part of the hole in the center of the part and a part of the ring around it, and the part. The outer peripheral portion of the ring of 20 exists around the camera-captured image 121 shown in FIG.
 カメラ120の撮影した撮影画像121は、学習処理部130に入力される。
 さらに、学習処理部130には、ロボット制御部125がロボット100の制御のために生成したロボット制御パラメータ126が入力される。ロボット制御パラメータ126は、例えば、ロボット100の各アームの制御位置、角度等のパラメータ、あるいは、これらの制御位置や角度に設定するための制御コマンドに設定するパラメータ等である。
 学習処理部130は、これらの入力データを用いた機械学習処理を実行する。
The captured image 121 captured by the camera 120 is input to the learning processing unit 130.
Further, the robot control parameter 126 generated by the robot control unit 125 for controlling the robot 100 is input to the learning processing unit 130. The robot control parameter 126 is, for example, a parameter such as a control position and an angle of each arm of the robot 100, or a parameter set in a control command for setting these control positions and angles.
The learning processing unit 130 executes machine learning processing using these input data.
 学習処理部130は、カメラ120の撮影した撮影画像121の特徴情報を取得する。例えば画素値の分布、エッジ情報等の画像特徴情報を取得し、これらの特徴情報に対する学習処理を行い、画像の特徴情報に対応するロボットの最適制御パラメータを対応付けた学習モデル131を生成する。 The learning processing unit 130 acquires the feature information of the captured image 121 captured by the camera 120. For example, image feature information such as pixel value distribution and edge information is acquired, learning processing is performed on these feature information, and a learning model 131 associated with the optimum control parameters of the robot corresponding to the image feature information is generated.
 学習処理部130が生成する学習モデル131は、
 入力が画像、すなわち、部品20を部品取り付けピン40の上に移動させた状態の画像、
 出力がロボット制御パラメータ目標値、すなわち、様々な画像に対応するロボット制御パラメータ目標値、
 である。
The learning model 131 generated by the learning processing unit 130 is
The input is an image, i.e., an image with the component 20 moved onto the component mounting pin 40.
The output is the robot control parameter target value, that is, the robot control parameter target value corresponding to various images.
Is.
 なお、学習モデル131の出力であるロボット制御パラメータ目標値も、ロボット100の各アームの制御位置、角度等のパラメータ、あるいは、これらの制御位置や角度に設定するための制御コマンドに設定するパラメータ等によって構成される。 The robot control parameter target value, which is the output of the learning model 131, is also a parameter such as a control position or angle of each arm of the robot 100, or a parameter set in a control command for setting these control positions or angles. Consists of.
 図5に示すように、学習処理部130は、多数の異なる状態画像、すなわち、ロボット100が、部品20を部品取り付けピン40の上に移動させた状態における様々な異なる(A)学習用画像を学習用データとして入力し、これらの画像の特徴情報を取得し、各画像に対応するロボット制御パラメータ目標値を対応付けた学習モデル131を生成する。 As shown in FIG. 5, the learning processing unit 130 displays a number of different state images, that is, various different (A) learning images in a state where the robot 100 moves the component 20 onto the component mounting pin 40. It is input as learning data, feature information of these images is acquired, and a learning model 131 in which robot control parameter target values corresponding to each image are associated with each other is generated.
 なお、学習処理部130において実行する学習処理は、いわゆる機械学習であり、様々な学習アルゴリズムの適用が可能である。物体位置姿勢制御タスクをロボットに実行させるための学習処理の一例としてディープニューラルネットワーク(DNN)を用いた学習処理であるディープラーニングがある。ディープラーニングを利用すれば、大量のサンプルデータを入力して、学習処理部自身が大量のデータから特徴量を自動抽出して、様々なデータに対応する最適解、例えばロボットの制御パラメータを生成することができる。 The learning process executed by the learning processing unit 130 is so-called machine learning, and various learning algorithms can be applied. Deep learning, which is a learning process using a deep neural network (DNN), is an example of a learning process for causing a robot to execute an object position / orientation control task. If deep learning is used, a large amount of sample data is input, and the learning processing unit itself automatically extracts the feature amount from the large amount of data to generate an optimum solution corresponding to various data, for example, a robot control parameter. be able to.
 ディープニューラルネットワーク(DNN)を利用した学習処理としては、例えば、畳み込みニューラルネットワークであるCNN(Convolutional Neural Network)に、BN(Batch Normalization)や、ReLU(Rectified Linear Unit)を組み合わせた学習処理が知られている。図5に示す学習処理部130は、例えばこのような構成を持つディープニューラルネットワーク(DNN)を利用した学習処理部として構成することが可能である。
 なお、学習処理部130は、この他にも様々な学習アルゴリズムを適用した学習処理部として実現可能である。
As a learning process using a deep neural network (DNN), for example, a learning process in which a convolutional neural network CNN (Convolutional Neural Network) is combined with a BN (Batch Rectification) or a ReLU (Rectified Linear Unit) is known. ing. The learning processing unit 130 shown in FIG. 5 can be configured as, for example, a learning processing unit using a deep neural network (DNN) having such a configuration.
The learning processing unit 130 can be realized as a learning processing unit to which various learning algorithms are applied.
 図5を参照して、学習処理部130の実行する学習処理の具体例について説明する。図5に示すように、学習処理部130は、部品20の部品取り付けピン40に対する挿入が成功した多数の異なる状態の画像、すなわち図5に示す「(A)学習用画像」と、これらの画像撮影時のロボット制御パラメータ、すなわち図5に示す「(B)部品挿入成功時のロボット制御パラメータ」との対応データを学習処理部130に入力する。 A specific example of the learning process executed by the learning processing unit 130 will be described with reference to FIG. As shown in FIG. 5, the learning processing unit 130 has a number of images of different states in which the component 20 has been successfully inserted into the component mounting pin 40, that is, the “(A) learning image” shown in FIG. 5 and these images. The robot control parameters at the time of shooting, that is, the data corresponding to the “(B) robot control parameters at the time of successful component insertion” shown in FIG. 5 are input to the learning processing unit 130.
 「(B)部品挿入成功時のロボット制御パラメータ」とは、例えば、ロボットのアームの位置(x,y,z)とアーム姿勢を示すロール、ピッチ、ヨー(roll,pitch,yaw)からなる6次元実数値ベクトル(アクション)が利用可能である。 “(B) Robot control parameter when component insertion is successful” is composed of, for example, the position (x, y, z) of the robot arm and the roll, pitch, and yaw (roll, pitch, yaw) indicating the arm posture. Dimensional real-valued vectors (actions) are available.
 このように学習サンプルとして、挿入が成功した直前のカメラ画像と実行したアクションのペアを大量に用意し、これらを学習処理部130に入力する。
 学習処理部130は、これらの入力データに対して、上述したCNNに、BNや、ReLUを組み合わせたニューラルネットワークを用いた学習処理、例えば確率的勾配降下法を用いてニューラルネットワークの構成要素に設定する重み情報等を決定するための学習処理を実行する。
In this way, as a learning sample, a large number of pairs of the camera image immediately before the successful insertion and the executed action are prepared, and these are input to the learning processing unit 130.
The learning processing unit 130 sets these input data as components of the neural network by using a learning process using a neural network in which the above-mentioned CNN is combined with BN and ReLU, for example, a stochastic gradient descent method. The learning process for determining the weight information to be performed is executed.
 学習処理部130は、この学習処理より、部品挿入直前の状況を示す画像を入力として、部品20を部品取り付けピン40に挿入させるための最適なロボット制御パラメータ、すなわちロボット制御パラメータ目標値を出力とする学習モデル131を生成する。 From this learning process, the learning processing unit 130 inputs an image showing the situation immediately before the component insertion and outputs an optimum robot control parameter for inserting the component 20 into the component mounting pin 40, that is, a robot control parameter target value. Generate a learning model 131 to be used.
 生成した学習モデル131を利用することで、実際のロボット100の制御を行うことができる。
 図6は、学習モデル131を利用したロボット100の制御例を示す図である。
By using the generated learning model 131, it is possible to control the actual robot 100.
FIG. 6 is a diagram showing a control example of the robot 100 using the learning model 131.
 学習モデルの生成時と同様の位置に備えたカメラ120によって撮影したカメラ撮影画像121を学習モデル131に入力する。
 学習モデル131は撮影画像121から特徴情報を取得し、取得した特徴情報に対応するロボットの最適制御パラメータ、すなわち図6に示すロボット制御パラメータ目標値132を出力する。
The camera-captured image 121 captured by the camera 120 provided at the same position as when the learning model was generated is input to the learning model 131.
The learning model 131 acquires feature information from the captured image 121, and outputs the optimum control parameter of the robot corresponding to the acquired feature information, that is, the robot control parameter target value 132 shown in FIG.
 図6に示すように、ロボット制御パラメータ目標値132は、ロボット制御部125に入力され、ロボット制御部125は、現時点のロボット制御パラメータ126とロボット制御パラメータ目標値132との差分を算出し、差分がある場合は、差分量をゼロ、または削減するようにロボット100の補正制御を行う。 As shown in FIG. 6, the robot control parameter target value 132 is input to the robot control unit 125, and the robot control unit 125 calculates the difference between the current robot control parameter 126 and the robot control parameter target value 132, and the difference. If there is, the robot 100 is corrected and controlled so that the difference amount is zero or reduced.
 このようにロボット制御パラメータ目標値132を用いてロボット100の制御を行うことで、ロボット100のアーム先端に取り付けられた部品20の位置、姿勢の補正制御が行われ、その後、部品20の吸着を解除することで部品20を部品取り付けピン40に確実に挿入することが可能となる。 By controlling the robot 100 using the robot control parameter target value 132 in this way, the position and orientation of the component 20 attached to the tip of the arm of the robot 100 are corrected and controlled, and then the component 20 is attracted. By releasing the component 20, the component 20 can be securely inserted into the component mounting pin 40.
 しかし、図5、図6を参照して説明した構成では、学習処理部130に対する学習用データとして、異なる状態を示す画像を、多数、入力することになり、学習処理部130は、多数の入力画像からロボット制御パラメータ目標値を生成するために必要となる様々な特徴情報を取得する処理を実行しなければならない。 However, in the configuration described with reference to FIGS. 5 and 6, a large number of images showing different states are input as learning data for the learning processing unit 130, and the learning processing unit 130 inputs a large number of images. It is necessary to execute the process of acquiring various feature information required to generate the robot control parameter target value from the image.
 先に図2、図3を参照して説明したように、ロボット100による部品20の取得位置(吸着位置)は、様々であり、また、部品20を部品取り付けピン40に取り付ける際の部品20と部品取り付けピン40との相対位置も様々な状態があり、これらの状況を示すバリエーションが非常に多くなる。 As described above with reference to FIGS. 2 and 3, the acquisition position (suction position) of the component 20 by the robot 100 is various, and the component 20 is attached to the component mounting pin 40. There are various states relative to the component mounting pin 40, and there are many variations indicating these situations.
 このように多くのバリエーションが存在する状況において、上記のような学習処理を行おうとすると、なるべく広範囲にバリエーションをカバーするために数万オーダーの学習用サンプルデータを用意する必要があり、データ収集処理とロバスト性を伴った学習モデルの構築処理に多大な時間を要することになる。 In a situation where there are many variations like this, if the above learning process is to be performed, it is necessary to prepare tens of thousands of orders of learning sample data in order to cover the variations as widely as possible, and the data collection process. It takes a lot of time to build a learning model with robustness.
 特に、学習処理部において適切な制御パラメータを算出するために必要となる画像の特徴情報を解析するための画像解析アルゴリズムの構築に多大な時間が必要となる。画像から取得可能な特徴情報は膨大であり、ロバスト性を伴った学習モデルを構築するためには、膨大な画像特徴情報各々についてロボット制御パラメータを生成するために必要な特徴情報であるか、また必要な特徴情報についてはどの程度の重要度があるか等を詳細に検討することが必要となる。 In particular, it takes a lot of time to construct an image analysis algorithm for analyzing the feature information of the image required to calculate an appropriate control parameter in the learning processing unit. The feature information that can be acquired from the image is enormous, and in order to construct a learning model with robustness, is it the feature information necessary to generate robot control parameters for each of the enormous image feature information? It is necessary to examine in detail how important the necessary feature information is.
 この画像解析アルゴリズムの精度が低いと、余分な画像特徴情報に基づくパラメータ算出が行われる可能性がある。従って、ロバスト性を伴った学習モデルを構築するためには、より高精度な画像解析アルゴリズムが不可欠となる。
 しかし、高精度な画像解析アルゴリズムを構築するためには膨大な数のサンプル画像データに対する画像解析が必要となり、そのための処理コストや処理時間が膨大になる。
If the accuracy of this image analysis algorithm is low, parameter calculation based on extra image feature information may be performed. Therefore, a more accurate image analysis algorithm is indispensable for constructing a learning model with robustness.
However, in order to construct a highly accurate image analysis algorithm, image analysis is required for a huge number of sample image data, and the processing cost and processing time for that purpose become enormous.
 具体的には、例えば数か月オーダーの時間が必要となる場合もある。結果として、例えば多品種少量生産の工場現場においては、学習モデルの構築をあきらめざるを得ず、人手による調整を行わざる得ない状況が発生する。 Specifically, for example, it may take several months to order. As a result, for example, at a factory site for high-mix low-volume production, there is a situation in which the construction of a learning model has to be given up and manual adjustment has to be made.
  [3.画像間の位相限定相関情報について]
 本開示の学習処理装置や、ロボット制御装置は、上記の問題点を解決するものであり、この解決のために、位相限定相関情報や、回転不変系位相限定相関情報や、画像位相スペクトルを用いた画像相関情報等、画像のずれ情報を画素(ビクセル)単位で算出可能な画像相関情報を用いる。
[3. About phase-limited correlation information between images]
The learning processing device and the robot control device of the present disclosure solve the above-mentioned problems, and for this solution, phase-limited correlation information, rotation-invariant phase-limited correlation information, and image phase spectrum are used. Image correlation information that can calculate image deviation information such as the existing image correlation information in pixel (bixel) units is used.
 位相限定相関(Phase only Correlation)情報は、PoC情報とも呼ばれる。
 図7を参照して位相限定相関情報(PoC情報)について説明する。
 位相限定相関情報(PoC情報)は2つの画像内のオブジェクト単位の並進移動量(ずれ量)を有する情報である。
Phase-only Correlation information is also referred to as PoC information.
The phase-limited correlation information (PoC information) will be described with reference to FIG. 7.
The phase-limited correlation information (PoC information) is information having a translational movement amount (shift amount) of each object in two images.
 例えば図7には、2つの画像、すなわち、
 (1a)画像a
 (1b)画像b
 これら2つの画像を示している。
 これら2つの画像は、同一被写体を撮影した画像であるが、相対位置がずれている。
 画像間のずれ量(シフト量)は、x方向に12画素、y方向に13画素である。
For example, FIG. 7 shows two images, i.e.
(1a) Image a
(1b) Image b
These two images are shown.
These two images are images of the same subject, but their relative positions are deviated.
The amount of deviation (shift amount) between images is 12 pixels in the x direction and 13 pixels in the y direction.
 位相限定相関情報(PoC情報)を算出することで、例えばこのような位置ずれのある2つの画像間のずれ量を容易に解析することができる。 By calculating the phase-limited correlation information (PoC information), for example, the amount of deviation between two images having such a positional deviation can be easily analyzed.
 位相限定相関情報(PoC情報)の算出シーケンスについて説明する。
 図7に示すステップS11~S12の順で処理を行う。
 各処理ステップについて、順次、説明する。
The calculation sequence of the phase-limited correlation information (PoC information) will be described.
The processing is performed in the order of steps S11 to S12 shown in FIG.
Each processing step will be described in sequence.
  (ステップS11a,11b)
 まず、画像aと画像bの各画像に対して離散フーリエ変換(DFT)を実行する。
 この離散フーリエ変換(DFT)により、画像a,b各々に対応する振幅情報Aと位相情報Ejθを出する。
(Steps S11a, 11b)
First, a discrete Fourier transform (DFT) is performed on each of the images a and b.
By this discrete Fourier transform (DFT), the amplitude information A and the phase information E corresponding to each of the images a and b are output.
  (ステップS12)
 次に、画像a,b各々に対応する位相情報同士の相関を計算し、それをIDFT(離散フーリエ逆変換)により位相情報のみを画像空間に戻す。
 画像空間に戻した位相情報が、図7に示す位相限定相関情報(PoC)140である。
(Step S12)
Next, the correlation between the phase information corresponding to each of the images a and b is calculated, and only the phase information is returned to the image space by IDFT (discrete Fourier transform).
The phase information returned to the image space is the phase-limited correlation information (PoC) 140 shown in FIG. 7.
 図7に示す位相限定相関情報(PoC)140からは1つのピークが検出される。
 このピーク位置(x,y)=(12,13)は、画像間のずれ量(シフト量)を示している。すなわち、位相限定相関情報(PoC)140に示されるピークの位置座標(x,y)=(12,13)が、画像aと画像bのずれ量(シフト量)(x方向に12画素、y方向に13画素)と一致する座標となる。
One peak is detected from the phase-limited correlation information (PoC) 140 shown in FIG. 7.
This peak position (x, y) = (12, 13) indicates the amount of deviation (shift amount) between images. That is, the position coordinates (x, y) = (12,13) of the peak shown in the phase-limited correlation information (PoC) 140 is the amount of deviation (shift amount) between the image a and the image b (12 pixels in the x direction, y). The coordinates match 13 pixels in the direction).
 このように、2つの画像から位相限定相関情報(PoC)を生成することで、2つの画像間のずれ量を簡単に解析することが可能となる。
 なお、図7に示す例では、画像aと画像bは、画像全体をシフトしている関係にあるため、2つの画像から生成した位相限定相関情報(PoC)には1つのピークのみが検出されている。
By generating phase-limited correlation information (PoC) from the two images in this way, it is possible to easily analyze the amount of deviation between the two images.
In the example shown in FIG. 7, since the image a and the image b are in a relationship of shifting the entire image, only one peak is detected in the phase-limited correlation information (PoC) generated from the two images. ing.
 例えば、画像aと画像b内に異なるずれ量を持つ複数のオブジェクト(被写体)が存在する場合は、位相限定相関情報(PoC)には、被写体各々のずれ量に応じた複数のピークが生成される。 For example, when there are a plurality of objects (subjects) having different deviation amounts in the image a and the image b, a plurality of peaks corresponding to the deviation amount of each subject are generated in the phase-limited correlation information (PoC). NS.
 例えば、図8に示すように、画像aと画像bが異なるタイミングで撮影された画像であり、被写体中に移動する車両が撮影されているとする。
 画像aと画像b全体のずれ量(シフト量)は、図7を参照して説明した例と同様、x方向に12画素、y方向に13画素である。
 しかし、移動する車両のずれ量は、この画像全体のずれ量とは異なるずれ量となる。
For example, as shown in FIG. 8, it is assumed that the image a and the image b are images taken at different timings, and a vehicle moving in the subject is photographed.
The amount of deviation (shift amount) between the image a and the entire image b is 12 pixels in the x direction and 13 pixels in the y direction, as in the example described with reference to FIG. 7.
However, the amount of deviation of the moving vehicle is different from the amount of deviation of the entire image.
 この場合、画像a,bから生成した位相限定相関情報(PoC)は、図8に示す位相限定相関情報(PoC)140に示すように2つのピークが出現する。
 1つのピークの座標位置は、画像a,bの画像全体のずれ量に対応する座標(x,y)=(12,13)となる。もう1つのピークの座標位置は、画像a,bの車両のずれ量に対応する座標(x,y)=(180,13)となる。
 このように、画像aと画像b内に異なるずれ量を持つ複数のオブジェクト(被写体)が存在する場合は、位相限定相関情報(PoC)には、被写体各々のずれ量に応じた複数のピークが生成される。
In this case, in the phase-limited correlation information (PoC) generated from the images a and b, two peaks appear as shown in the phase-limited correlation information (PoC) 140 shown in FIG.
The coordinate position of one peak is the coordinates (x, y) = (12, 13) corresponding to the amount of deviation of the entire image of the images a and b. The coordinate position of the other peak is the coordinates (x, y) = (180, 13) corresponding to the amount of deviation of the vehicle in the images a and b.
In this way, when there are a plurality of objects (subjects) having different deviation amounts in the image a and the image b, the phase-limited correlation information (PoC) contains a plurality of peaks according to the deviation amount of each subject. Will be generated.
 本開示の学習処理装置や、ロボット制御装置は、この位相限定相関情報(PoC)を用いて学習処理や、ロボット制御処理を実行する。 The learning processing device and the robot control device of the present disclosure execute learning processing and robot control processing using this phase-limited correlation information (PoC).
  [4.位相限定相関情報を用いた処理を行う本開示の学習処理装置、およびロボット制御装置について]
 次に、位相限定相関情報を用いた処理を行う本開示の学習処理装置、およびロボット制御装置について説明する。
 なお、本開示の学習処理装置、およびロボット制御装置は位相限定相関情報に限らず、回転不変系位相限定相関情報や、画像位相スペクトルを用いた画像相関情報等、画像のずれ情報を画素(ビクセル)単位で算出可能な画像相関情報を用いた処理を行う構成が可能である。以下では、一例として位相限定相関情報を用いた実施例について説明する。
[4. About the learning processing device and the robot control device of the present disclosure that perform processing using phase-limited correlation information]
Next, the learning processing device of the present disclosure and the robot control device that perform processing using the phase-limited correlation information will be described.
The learning processing device and the robot control device of the present disclosure are not limited to phase-limited correlation information, but pixel (Vixel) image deviation information such as rotation-invariant phase-limited correlation information and image correlation information using an image phase spectrum. ) It is possible to perform processing using image correlation information that can be calculated in units. In the following, an example using phase-limited correlation information will be described as an example.
 先に図4、図5を参照して説明した学習処理部130は、学習用画像、すなわち、部品20の部品取り付けピン40に対する挿入が成功した多数の異なる状態の画像を入力し、入力した画像の画像解析を行い、ロボット制御パラメータの生成に必要となる特徴情報を抽出する処理を行っていた。 The learning processing unit 130 described above with reference to FIGS. 4 and 5 inputs a learning image, that is, a number of images in different states in which the component 20 is successfully inserted into the component mounting pin 40, and the input images. The image was analyzed and the feature information required to generate the robot control parameters was extracted.
 これに対して、以下において説明する本開示の学習処理装置の学習処理部は、部品20や部品取り付けピン40を撮影した画像を入力しない。 On the other hand, the learning processing unit of the learning processing device of the present disclosure described below does not input an image of the component 20 or the component mounting pin 40.
 本開示の学習処理装置の学習処理部には画像に基づいて生成せれる位相限定相関情報を入力する。
 具体的には、部品20の部品取り付けピン40に対する挿入位置における様々な画像と、部品20の部品取り付けピン40に対する挿入が成功する模範となる位置姿勢を持つ模範画像との位相限定相関情報を入力する。
Phase-limited correlation information that can be generated based on an image is input to the learning processing unit of the learning processing apparatus of the present disclosure.
Specifically, phase-limited correlation information is input between various images at the insertion position of the component 20 with respect to the component mounting pin 40 and a model image having a position and orientation that serves as a model for successful insertion of the component 20 into the component mounting pin 40. do.
 図9を参照して本開示の学習処理装置の一実施例の構成と処理について説明する。
 図9は、本開示の第1実施例の学習処理装置160の構成と処理を説明する図である。
A configuration and processing of an embodiment of the learning processing apparatus of the present disclosure will be described with reference to FIG.
FIG. 9 is a diagram illustrating the configuration and processing of the learning processing device 160 according to the first embodiment of the present disclosure.
 図9に示すように、学習処理装置160は、位相限定相関情報(PoC)算出部161と、学習処理部162を有する。 As shown in FIG. 9, the learning processing device 160 has a phase-limited correlation information (PoC) calculation unit 161 and a learning processing unit 162.
 位相限定相関情報(PoC)算出部161には、先に図4を参照して説明したと同様のカメラ120が撮影したカメラ撮影画像121を入力する。カメラ120は、ロボット100が、部品20を部品取り付けピン40の上に移動させた状態の画像を撮影する。
 このカメラ撮影画像121は様々な状態の画像である。すなわち、先に図3を参照して説明した部品20と部品取り付けピン40の相対位置が様々な異なる状態の画像である。
A camera-captured image 121 captured by the same camera 120 as described above with reference to FIG. 4 is input to the phase-limited correlation information (PoC) calculation unit 161. The camera 120 captures an image of the robot 100 moving the component 20 onto the component mounting pin 40.
The camera-captured image 121 is an image in various states. That is, it is an image of various different states in which the relative positions of the component 20 and the component mounting pin 40 described above with reference to FIG. 3 are different.
 位相限定相関情報(PoC)算出部161には、さらに、事前に撮影され、記憶部150に格納された模範画像151を入力する。
 模範画像151は、部品20と部品取り付けピン40の相対位置を模範的な位置とした画像である。すなわち、この模範画像151と同様の位置に部品20と部品取り付けピン40の位置が設定されていれば確実に部品20を部品取り付けピン40に挿入することが可能となる。
Further, a model image 151 that has been captured in advance and stored in the storage unit 150 is input to the phase-limited correlation information (PoC) calculation unit 161.
The model image 151 is an image in which the relative positions of the component 20 and the component mounting pin 40 are set as model positions. That is, if the positions of the component 20 and the component mounting pin 40 are set at the same positions as the model image 151, the component 20 can be reliably inserted into the component mounting pin 40.
 このように、位相限定相関情報(PoC)算出部161には、
 カメラ撮影画像121、
 模範画像151、
 これら一組の画像ペアが入力される。
As described above, the phase-limited correlation information (PoC) calculation unit 161 is provided with the phase-limited correlation information (PoC) calculation unit 161.
Camera shot image 121,
Model image 151,
These pairs of images are input.
 位相限定相関情報(PoC)算出部161は、この2つの画像、すなわち、カメラ撮影画像121と、模範画像151、これら2つの画像対応の位相限定相関情報(PoC)を算出する。
 図9には、位相限定相関情報(PoC)算出部161の生成した位相限定相関情報(PoC)171の例を示している。
The phase-limited correlation information (PoC) calculation unit 161 calculates these two images, that is, the camera-captured image 121, the model image 151, and the phase-limited correlation information (PoC) corresponding to these two images.
FIG. 9 shows an example of the phase-limited correlation information (PoC) 171 generated by the phase-limited correlation information (PoC) calculation unit 161.
 先に図7、図8を参照して説明したように、位相限定相関情報(PoC)は、2つの画像に含まれるオブジェクト(被写体)単位のずれ(シフト)に応じたピークが生成される。位相限定相関情報(PoC)に出現したピーク位置の座標が、オブジェクト(被写体)単位のずれ(シフト)の量、方向を示す座標となる。 As explained earlier with reference to FIGS. 7 and 8, the phase-limited correlation information (PoC) generates peaks according to the shift of the object (subject) unit included in the two images. The coordinates of the peak position appearing in the phase-limited correlation information (PoC) are the coordinates indicating the amount and direction of the shift in the object (subject) unit.
 図9に示す例では、カメラ撮影画像121と、模範画像151には2つのオブジェクト、すなわち、部品20と部品取り付けピン40、これら2つのオブジェクトが被写体として含まれており、位相限定相関情報(PoC)算出部161の生成した位相限定相関情報(PoC)171には、これら2つのオブジェクトについての画像間のずれ量に応じた座標位置にピークが出現している。これら2つのピークに対応する2つの座標(x,y)の一方が部品20のずれに対応し、他方が部品取り付けピン40のずれに相当する。 In the example shown in FIG. 9, the camera-captured image 121 and the model image 151 include two objects, that is, a component 20 and a component mounting pin 40, and these two objects as subjects, and phase-limited correlation information (PoC). ) In the phase-limited correlation information (PoC) 171 generated by the calculation unit 161, a peak appears at a coordinate position corresponding to the amount of deviation between the images of these two objects. One of the two coordinates (x, y) corresponding to these two peaks corresponds to the deviation of the component 20, and the other corresponds to the deviation of the component mounting pin 40.
 模範画像151における部品20と部品取り付けピン40各々の位置を基準位置(基準部品位置、および基準ピン位置)とした場合、位相限定相関情報(PoC)171の2つのピーク座標位置は、カメラ撮影画像121内の部品20と部品取り付けピン40各々の位置の、基準位置からの位置ずれ量と方向を示すデータ(位置ずれベクトル)となる。 When the positions of the component 20 and the component mounting pin 40 in the model image 151 are set as reference positions (reference component position and reference pin position), the two peak coordinate positions of the phase-limited correlation information (PoC) 171 are images taken by the camera. It is data (positional deviation vector) indicating the amount and direction of the positional deviation from the reference position of the positions of the component 20 and the component mounting pin 40 in 121.
 位相限定相関情報(PoC)算出部161の生成した位相限定相関情報(PoC)171は、学習処理部162に入力される。
 学習処理部162は、位相限定相関情報(PoC)算出部161の生成した位相限定相関情報(PoC)171を入力する。
 さらに、学習処理部162には、ロボット制御部125がロボット100の制御のために生成したロボット制御パラメータ126が入力される。ロボット制御パラメータ126は、例えば、ロボット100の各アームの制御位置、角度等のパラメータ、あるいは、これらの制御位置や角度に設定するための制御コマンドに設定するパラメータ等である。
 学習処理部162は、これらの入力データを用いた機械学習処理を実行する。
The phase-limited correlation information (PoC) 171 generated by the phase-limited correlation information (PoC) calculation unit 161 is input to the learning processing unit 162.
The learning processing unit 162 inputs the phase-limited correlation information (PoC) 171 generated by the phase-limited correlation information (PoC) calculation unit 161.
Further, the robot control parameter 126 generated by the robot control unit 125 for controlling the robot 100 is input to the learning processing unit 162. The robot control parameter 126 is, for example, a parameter such as a control position and an angle of each arm of the robot 100, or a parameter set in a control command for setting these control positions and angles.
The learning processing unit 162 executes machine learning processing using these input data.
 学習処理部162は、位相限定相関情報(PoC)171と、ロボット制御パラメータ126を適用した学習処理を行い、様々な位相限定相関情報(PoC)171に対応するロボットの最適制御パラメータ、すなわちロボット制御パラメータ目標値を対応付けた学習モデル172を生成する。 The learning processing unit 162 performs learning processing by applying the phase-limited correlation information (PoC) 171 and the robot control parameter 126, and the optimum control parameter of the robot corresponding to various phase-limited correlation information (PoC) 171, that is, robot control. A learning model 172 associated with a parameter target value is generated.
 学習処理部162が生成する学習モデル172は、
 入力が位相限定相関情報(PoC)、すなわち、部品20を部品取り付けピン40の上に移動させた状態の画像と模範画像の2つの画像に基づいて生成された2つの画像の位相限定相関情報(PoC)、
 出力がロボット制御パラメータ目標値、すなわち、様々な位相限定相関情報(PoC)に対応するロボット制御パラメータ目標値、
 である。
The learning model 172 generated by the learning processing unit 162
The input is phase-limited correlation information (PoC), that is, the phase-limited correlation information of the two images generated based on the image in which the component 20 is moved onto the component mounting pin 40 and the model image. PoC),
The output is a robot control parameter target value, that is, a robot control parameter target value corresponding to various phase-limited correlation information (PoC).
Is.
 なお、学習モデル172の出力であるロボット制御パラメータ目標値も、ロボット100の各アームの制御位置、角度等のパラメータ、あるいは、これらの制御位置や角度に設定するための制御コマンドに設定するパラメータ等によって構成される。 The robot control parameter target value, which is the output of the learning model 172, is also a parameter such as a control position or angle of each arm of the robot 100, or a parameter set in a control command for setting these control positions or angles. Consists of.
 位相限定相関情報(PoC)算出部161の実行する処理と、学習処理部162の実行する処理の詳細について、図10、図11を参照して説明する。 Details of the processing executed by the phase-limited correlation information (PoC) calculation unit 161 and the processing executed by the learning processing unit 162 will be described with reference to FIGS. 10 and 11.
 図10は、位相限定相関情報(PoC)算出部161の実行する処理の詳細について説明する図である。 FIG. 10 is a diagram illustrating details of the process executed by the phase-limited correlation information (PoC) calculation unit 161.
 位相限定相関情報(PoC)算出部161は、ロボット100が部品20を部品取り付けピン40の上に移動させた状態でカメラ120が撮影した多数の画像を、順次、入力する。
 ロボット100に動作を繰り返し実行させて、図10に示す(A)カメラ撮影画像を生成して、これらを位相限定相関情報(PoC)算出部161に順次、入力する。
 図10に示す(A)カメラ撮影画像の各々は、部品20と、部品取り付けピン40の相対位置が異なる様々な画像である。
The phase-limited correlation information (PoC) calculation unit 161 sequentially inputs a large number of images taken by the camera 120 while the robot 100 moves the component 20 onto the component mounting pin 40.
The robot 100 is repeatedly executed to generate the images captured by the camera (A) shown in FIG. 10, and these are sequentially input to the phase-limited correlation information (PoC) calculation unit 161.
Each of the images taken by the camera (A) shown in FIG. 10 is various images in which the relative positions of the component 20 and the component mounting pin 40 are different.
 位相限定相関情報(PoC)算出部161は、順次、入力されるカメラ撮影画像の各々について、記憶部150から取得した模範画像151との位相限定相関情報(PoC)の算出処理を実行して、図10に示す(A)カメラ撮影画像の各々に対応する(B)学習用位相限定相関情報(PoC)を生成する。
 図10に示す(B)学習用位相限定相関情報(PoC)である。
The phase-limited correlation information (PoC) calculation unit 161 sequentially executes the calculation processing of the phase-limited correlation information (PoC) with the model image 151 acquired from the storage unit 150 for each of the input camera-captured images. (A) The phase-limited correlation information (PoC) for learning corresponding to each of the images captured by the camera shown in FIG. 10 is generated.
(B) Phase-limited correlation information for learning (PoC) shown in FIG. 10.
 図10に示す(B)学習用位相限定相関情報(PoC)の各々は、図10に示す(A)カメラ撮影画像各々に含まれる部品20と、部品取り付けピン40各々の位置の基準位置(模範画像151の部品20と、部品取り付けピン40各々の位置)からのずれ位置に対応する座標位置にピークが生成されたPoCデータとなる。 Each of the (B) learning phase-limited correlation information (PoC) shown in FIG. 10 is a reference position (model) of the position of each of the component 20 and the component mounting pin 40 included in each of the (A) camera captured images shown in FIG. It is the PoC data in which the peak is generated at the coordinate position corresponding to the deviation position from the component 20 of the image 151 and the position of each of the component mounting pins 40).
 これら図10に示す(B)学習用位相限定相関情報(PoC)が学習処理部162に入力される。
 次に、図11を参照して学習処理部162の実行する処理の詳細について説明する。
The (B) learning phase-limited correlation information (PoC) shown in FIG. 10 is input to the learning processing unit 162.
Next, the details of the processing executed by the learning processing unit 162 will be described with reference to FIG.
 図11に示すように、学習処理部162は、
 (B)学習用位相限定相関情報(PoC)、
 (C)挿入成功時のロボット制御パラメータ、
 これらのデータの組を多数、入力する。
As shown in FIG. 11, the learning processing unit 162
(B) Phase-limited correlation information for learning (PoC),
(C) Robot control parameters when insertion is successful,
Enter many sets of these data.
 「(B)学習用位相限定相関情報(PoC)」は、部品20の部品取り付けピン40に対する挿入が成功した際の部品挿入直前の画像(カメラ撮影画像121)と、模範画像151とに基づいて、位相限定相関情報(PoC)算出部161が算出した位相限定相関情報(PoC)である。
 「(C)挿入成功時のロボット制御パラメータ」は、対応付けられた「(B)学習用位相限定相関情報(PoC)」の算出に適用した画像(カメラ撮影画像121)の撮影タイミングにおけるロボット制御パラメータである。
"(B) Phase-limited correlation information for learning (PoC)" is based on an image immediately before the component is inserted (camera image 121) when the component 20 is successfully inserted into the component mounting pin 40 and a model image 151. , Phase-limited correlation information (PoC) This is the phase-limited correlation information (PoC) calculated by the calculation unit 161.
"(C) Robot control parameter when insertion is successful" is robot control at the shooting timing of the image (camera shot image 121) applied to the calculation of the associated "(B) phase-limited correlation information for learning (PoC)". It is a parameter.
 なお、「(C)挿入成功時のロボット制御パラメータ」は、例えば、ロボットのアームの位置(x,y,z)とアーム姿勢を示すロール、ピッチ、ヨー(roll,pitch,yaw)からなる6次元実数値ベクトル(アクション)等である。 The "(C) robot control parameter when the insertion is successful" is composed of, for example, the position (x, y, z) of the robot arm and the roll, pitch, and yaw (roll, pitch, yaw) indicating the arm posture. Dimensional real-valued vector (action), etc.
 このように学習サンプルとして、(B)学習用位相限定相関情報(PoC)と、(C)挿入成功時のロボット制御パラメータのペアを大量に用意し、これらを学習処理部162に入力する。
 学習処理部162は、これらの入力データに対して学習処理を実行し、学習モデル172を生成する。
In this way, as a learning sample, (B) a large number of pairs of phase-limited correlation information (PoC) for learning and (C) robot control parameters at the time of successful insertion are prepared, and these are input to the learning processing unit 162.
The learning processing unit 162 executes learning processing on these input data and generates a learning model 172.
 学習処理部162が生成する学習モデル172は、
 入力を、位相限定相関情報(PoC)とし、
 出力を、ロボット制御パラメータ目標値、すなわち、部品20を部品取り付けピン40に挿入させるための最適なロボット制御パラメータであるロボット制御パラメータ目標値、
 上記設定の学習モデルである。
The learning model 172 generated by the learning processing unit 162
The input is phase-limited correlation information (PoC).
The output is the robot control parameter target value, that is, the robot control parameter target value, which is the optimum robot control parameter for inserting the component 20 into the component mounting pin 40.
This is a learning model with the above settings.
 なお、学習処理部162において実行する学習処理は、いわゆる機械学習であり、様々な学習アルゴリズムの適用が可能である。例えば先に説明したディープニューラルネットワーク(DNN)を利用した学習処理が適用可能である。 The learning process executed by the learning processing unit 162 is so-called machine learning, and various learning algorithms can be applied. For example, the learning process using the deep neural network (DNN) described above can be applied.
 前述したように、例えば、畳み込みニューラルネットワークであるCNN(Convolutional Neural Network)に、BN(Batch Normalization)や、ReLU(Rectified Linear Unit)を組み合わせた学習処理を適用することができる。
 なお、学習処理部162は、この他にも様々な学習アルゴリズムを適用した学習処理部として実現可能である。
As described above, for example, a learning process in which a convolutional neural network CNN (Convolutional Neural Network) is combined with a BN (Batch Rectification) or a ReLU (Rectified Linear Unit) can be applied.
The learning processing unit 162 can be realized as a learning processing unit to which various learning algorithms are applied.
 学習処理部162は、例えば上述したCNNに、BNや、ReLUを組み合わせたニューラルネットワークを用いた学習処理、例えば確率的勾配降下法を用いてニューラルネットワークの重みを学習する。
 学習処理部162は、この学習処理より、部品挿入直前の状況を示す画像と模範画像から生成される学習用位相限定相関情報(PoC)を入力として、部品20を部品取り付けピン40に挿入させるための最適なロボット制御パラメータであるロボット制御パラメータ目標値を出力とする学習モデル172を生成する。
The learning processing unit 162 learns the weight of the neural network by using, for example, a learning process using a neural network in which BN or ReLU is combined with the above-mentioned CNN, for example, a stochastic gradient descent method.
From this learning process, the learning processing unit 162 receives the learning phase-limited correlation information (PoC) generated from the image showing the situation immediately before the component insertion and the model image as input, and inserts the component 20 into the component mounting pin 40. A learning model 172 that outputs a robot control parameter target value, which is the optimum robot control parameter of the above, is generated.
 生成した学習モデル172を利用することで、実際のロボット100の制御を行うことができる。
 図12は、学習モデル172を利用したロボット100の制御を行うロボット制御装置180の構成と処理を説明する図である。
By using the generated learning model 172, it is possible to control the actual robot 100.
FIG. 12 is a diagram illustrating the configuration and processing of the robot control device 180 that controls the robot 100 using the learning model 172.
 図12に示すように、ロボット制御装置180は、位相限定相関情報(PoC)算出部181、学習モデル172、ロボット制御部125を有する。 As shown in FIG. 12, the robot control device 180 has a phase-limited correlation information (PoC) calculation unit 181, a learning model 172, and a robot control unit 125.
 位相限定相関情報(PoC)算出部181は、ロボット100が部品20を部品取り付けピン40の上に移動させた状態でカメラ120が撮影したカメラ撮影画像121と、記憶部150に格納された模範画像151を入力して、これら2つの画像から位相限定相関情報(PoC)191を算出する。 The phase-limited correlation information (PoC) calculation unit 181 includes a camera image 121 taken by the camera 120 with the robot 100 moving the component 20 onto the component mounting pin 40 and a model image stored in the storage unit 150. 151 is input and the phase-limited correlation information (PoC) 191 is calculated from these two images.
 なお、カメラ撮影画像121と、模範画像151には2つのオブジェクト、すなわち、部品20と部品取り付けピン40、これら2つのオブジェクトが被写体として含まれており、位相限定相関情報(PoC)算出部181の生成した位相限定相関情報(PoC)191には、これら2つのオブジェクトについての画像間のずれ量に応じた座標位置にピークが出現している。これら2つのピークに対応する2つの座標(x,y)の一方が部品20のずれに対応し、他方が部品取り付けピン40のずれに相当する。 The camera-captured image 121 and the model image 151 include two objects, that is, a component 20 and a component mounting pin 40, and these two objects as subjects, and the phase-limited correlation information (PoC) calculation unit 181 In the generated phase-limited correlation information (PoC) 191, peaks appear at coordinate positions corresponding to the amount of deviation between the images of these two objects. One of the two coordinates (x, y) corresponding to these two peaks corresponds to the deviation of the component 20, and the other corresponds to the deviation of the component mounting pin 40.
 位相限定相関情報(PoC)算出部181が算出した位相限定相関情報(PoC)191は、学習モデル172に入力される。
 学習モデル172は、先に図9を参照して説明した学習処理装置160が生成した学習モデル172である。
 この学習モデル172は、
 入力を、位相限定相関情報(PoC)とし、
 出力を、ロボット制御パラメータ目標値、すなわち、部品20を部品取り付けピン40に挿入させるための最適なロボット制御パラメータであるロボット制御パラメータ目標値、
 上記設定の学習モデルである。
The phase-limited correlation information (PoC) 191 calculated by the phase-limited correlation information (PoC) calculation unit 181 is input to the learning model 172.
The learning model 172 is a learning model 172 generated by the learning processing device 160 described above with reference to FIG.
This learning model 172
The input is phase-limited correlation information (PoC).
The output is the robot control parameter target value, that is, the robot control parameter target value, which is the optimum robot control parameter for inserting the component 20 into the component mounting pin 40.
This is a learning model with the above settings.
 学習モデル172は、位相限定相関情報(PoC)算出部181が算出した位相限定相関情報(PoC)191を取得し、取得した位相限定相関情報(PoC)191に対応するロボットの最適制御パラメータ、すなわち図12に示すロボット制御パラメータ目標値192を出力する。 The learning model 172 acquires the phase-limited correlation information (PoC) 191 calculated by the phase-limited correlation information (PoC) calculation unit 181, and the optimum control parameter of the robot corresponding to the acquired phase-limited correlation information (PoC) 191. The robot control parameter target value 192 shown in FIG. 12 is output.
 図12に示すように、ロボット制御パラメータ目標値192は、ロボット制御部125に入力され、ロボット制御部125は、現時点のロボット制御パラメータ126とロボット制御パラメータ目標値192との差分を算出し、差分がある場合は、差分量をゼロ、または削減するようにロボット100の補正制御(再制御)を行う。 As shown in FIG. 12, the robot control parameter target value 192 is input to the robot control unit 125, and the robot control unit 125 calculates the difference between the current robot control parameter 126 and the robot control parameter target value 192, and the difference. If there is, the robot 100 is corrected (re-controlled) so that the difference amount is zero or reduced.
 このようにロボット制御パラメータ目標値192を用いてロボット100の制御を行うことで、ロボット100のアーム先端に取り付けられた部品20の位置、姿勢の補正制御が行われ、その後、部品20の吸着を解除することで部品20を部品取り付けピン40に確実に挿入することが可能となる。 By controlling the robot 100 using the robot control parameter target value 192 in this way, the position and orientation of the component 20 attached to the tip of the arm of the robot 100 are corrected and controlled, and then the component 20 is attracted. By releasing the component 20, the component 20 can be securely inserted into the component mounting pin 40.
 なお、図9~図11を参照して説明した学習処理装置160が生成し、図12を参照して説明したロボット制御装置180が利用する学習モデルの設定は、様々な設定が可能である。 The learning model 160 generated by the learning processing device 160 described with reference to FIGS. 9 to 11 and used by the robot control device 180 described with reference to FIG. 12 can be set in various ways.
 複数の設定例について、図13を参照して説明する。
 図13には、以下の各データに関する複数の設定例を示している。
 (A)学習処理装置の学習処理部の入力データ
 (M)ロボット制御装置の学習モデル入出力データ
A plurality of setting examples will be described with reference to FIG.
FIG. 13 shows a plurality of setting examples for each of the following data.
(A) Input data of the learning processing unit of the learning processing device (M) Learning model input / output data of the robot control device
 設定例(1)は、以下の設定である。
 (A)学習処理装置の学習処理部の入力データは、
 (a1)部品挿入成功時のカメラ撮影画像と模範画像間の位相限定相関情報
 (a2)部品挿入成功時のカメラ撮影画像の撮影タイミングにおけるロボット制御パラメータ
The setting example (1) is the following setting.
(A) The input data of the learning processing unit of the learning processing device is
(A1) Phase-limited correlation information between the camera-captured image and the model image when the component insertion is successful (a2) Robot control parameters at the capture timing of the camera-captured image when the component insertion is successful
 (M)ロボット制御装置の学習モデル入出力データは、
 学習モデル入力データが、
 (Min1)部品挿入タイミングのカメラ撮影画像と模範画像間の位相限定相関情報
 学習モデル出力データが、
 (Mout)ロボット制御パラメータ目標値
 である。
 この設定例(1)は、図10~図12を参照して説明した実施例に対応する設定例である。
(M) The learning model input / output data of the robot control device is
The training model input data is
(Min1) Phase-limited correlation information between the camera-captured image and the model image at the component insertion timing The learning model output data is
(Mout) Robot control parameter target value.
This setting example (1) is a setting example corresponding to the embodiment described with reference to FIGS. 10 to 12.
 この設定の他、例えば、以下のような設定が可能である。
 設定例(2)は、以下の設定である。
 (A)学習処理装置の学習処理部の入力データは、
 (a1)部品挿入タイミングのカメラ撮影画像と模範画像間の位相限定相関情報
 (a2)部品挿入タイミングのカメラ撮影画像の撮影タイミングにおけるロボット制御パラメータ
 (a3)部品挿入成功、失敗を示す挿入成否フラグ
In addition to this setting, for example, the following settings can be made.
The setting example (2) is the following setting.
(A) The input data of the learning processing unit of the learning processing device is
(A1) Phase-limited correlation information between the camera-captured image of the component insertion timing and the model image (a2) Robot control parameters at the capture timing of the camera-captured image of the component insertion timing (a3) Insertion success / failure flag indicating success or failure of component insertion
 (M)ロボット制御装置の学習モデル入出力データは、
 学習モデル入力データが、
 (Min1)部品挿入タイミングのカメラ撮影画像と模範画像間の位相限定相関情報
 学習モデル出力データが、
 (Mout)ロボット制御パラメータ目標値
 である。
(M) The learning model input / output data of the robot control device is
The training model input data is
(Min1) Phase-limited correlation information between the camera-captured image and the model image at the component insertion timing The learning model output data is
(Mout) Robot control parameter target value.
 この設定例(2)は、設定例(1)と違い、学習処理装置における学習処理において、部品挿入成功時の撮影画像に基づく位相限定相関情報のみではなく、部品挿入失敗時の撮影画像に基づく位相限定相関情報も利用した設定である。
 このように失敗情報も学習データとして含めることで、成功時と失敗時の異なる位相限定相関情報を分類することが可能となり、精度の高い学習モデル出力データ、すなわち(Mout)ロボット制御パラメータ目標値を生成して出力することができる。
Unlike the setting example (1), this setting example (2) is based not only on the phase-limited correlation information based on the captured image when the component insertion is successful but also on the captured image when the component insertion fails in the learning process in the learning processing device. This setting also uses phase-limited correlation information.
By including the failure information as learning data in this way, it is possible to classify different phase-limited correlation information at the time of success and failure, and highly accurate learning model output data, that is, (Mout) robot control parameter target value can be obtained. It can be generated and output.
 設定例(3)は、以下の設定である。
 (A)学習処理装置の学習処理部の入力データは、
 (a1)部品挿入成功時のカメラ撮影画像と模範画像間の位相限定相関情報
 (a2)部品挿入成功時のカメラ撮影画像の撮影タイミングにおけるロボット制御パラメータ
The setting example (3) is the following setting.
(A) The input data of the learning processing unit of the learning processing device is
(A1) Phase-limited correlation information between the camera-captured image and the model image when the component insertion is successful (a2) Robot control parameters at the capture timing of the camera-captured image when the component insertion is successful
 (M)ロボット制御装置の学習モデル入出力データは、
 学習モデル入力データが、
 (Min1)部品挿入タイミングのカメラ撮影画像と模範画像間の位相限定相関情報
 (Min2)カメラ撮影画像の撮影タイミングにおけるロボット制御パラメータ
 学習モデル出力データが、
 (Mout)現在のロボット制御パラメータと目標値との差分
 である。
(M) The learning model input / output data of the robot control device is
The training model input data is
(Min1) Phase-limited correlation information between the camera-captured image and the model image of the component insertion timing (Min2) Robot control parameters at the capture timing of the camera-captured image The learning model output data is
(Mout) The difference between the current robot control parameter and the target value.
 この設定例(3)は、(A)学習処理装置の学習処理部の入力データは、設定例(1)、すなわち、図10~図12を参照して説明した実施例と同じである。
 (M)ロボット制御装置の学習モデル入力データとして、
 (Min2)カメラ撮影画像の撮影タイミングにおけるロボット制御パラメータ
 この制御パラメータを追加した点が異なっている。
 さらに、
 (M)ロボット制御装置の学習モデル出力データとして、
 (Mout)現在のロボット制御パラメータと目標値との差分
 このような差分データを出力する設定である。
 ロボット制御部125は、この差分データに基づいて、ロボット100を補正制御することができる。
In this setting example (3), the input data of the learning processing unit of the (A) learning processing apparatus is the same as the setting example (1), that is, the embodiment described with reference to FIGS. 10 to 12.
(M) As learning model input data of the robot control device,
(Min2) Robot control parameter at the shooting timing of the image shot by the camera The difference is that this control parameter is added.
Moreover,
(M) As learning model output data of the robot control device
(Mout) Difference between the current robot control parameter and the target value It is a setting to output such difference data.
The robot control unit 125 can correct and control the robot 100 based on the difference data.
 設定例(4)は、以下の設定である。
 (A)学習処理装置の学習処理部の入力データは、
 (a1)部品挿入成功時のカメラ撮影画像と模範画像間の位相限定相関情報
 (a2)部品挿入成功時のカメラ撮影画像の撮影タイミングにおけるロボット制御パラメータ
 (a3)部品挿入成功時のカメラ撮影画像
The setting example (4) is the following setting.
(A) The input data of the learning processing unit of the learning processing device is
(A1) Phase-limited correlation information between the camera-captured image and the model image when the component is successfully inserted (a2) Robot control parameters at the capture timing of the camera-captured image when the component is successfully inserted (a3) The camera-captured image when the component is successfully inserted
 (M)ロボット制御装置の学習モデル入出力データは、
 学習モデル入力データが、
 (Min1)部品挿入タイミングのカメラ撮影画像と模範画像間の位相限定相関情報
 (Min2)カメラ撮影画像の撮影タイミングのカメラ撮影画像
 学習モデル出力データが、
 (Mout)現在のロボット制御パラメータと目標値との差分
 である。
(M) The learning model input / output data of the robot control device is
The training model input data is
(Min1) Phase-limited correlation information between the camera-captured image of the component insertion timing and the model image (Min2) The camera-captured image of the camera-captured image of the camera-captured image The learning model output data is
(Mout) The difference between the current robot control parameter and the target value.
 この設定例(3)は、(A)学習処理装置の学習処理部の入力データとして、設定例(1)、すなわち、図10~図12を参照して説明した実施例の入力データに対して、
 (a3)部品挿入成功時のカメラ撮影画像
 この撮影画像を追加している点が異なる。
 また、(M)ロボット制御装置の学習モデル入力データとしても、
 (Min2)カメラ撮影画像の撮影タイミングのカメラ撮影画像
 この撮影画像を追加した点が異なっている。
This setting example (3) is the input data of the learning processing unit of the learning processing apparatus (A) with respect to the setting example (1), that is, the input data of the embodiment described with reference to FIGS. 10 to 12. ,
(A3) Image taken by the camera when the component is successfully inserted The difference is that this photographed image is added.
Also, as the learning model input data of the (M) robot control device,
(Min2) Camera-captured image of camera-captured image The difference is that this captured image is added.
 先に説明したように、部品挿入タイミングのカメラ撮影画像と模範画像間の位相限定相関情報(PoC)には、2つのオブジェクト、すなわち、部品20と部品取り付けピン40、これら2つのオブジェクトの画像間のずれ量に応じた座標位置に2つのピークが出現している。
 学習処理部の入力データとして、
 (a3)部品挿入成功時のカメラ撮影画像
 この撮影画像データを入力することで、位相限定相関情報(PoC)に出現している2つのピークが、部品20と部品取り付けピン40、これら2つのオブジェクトのどちらのオブジェクトに対応するかを容易に判別することができる。
As described above, the phase-limited correlation information (PoC) between the camera-captured image and the model image of the component insertion timing includes two objects, that is, the component 20 and the component mounting pin 40, and between the images of these two objects. Two peaks appear at the coordinate positions according to the amount of deviation.
As input data of the learning processing unit
(A3) Image taken by the camera when the component is successfully inserted By inputting this captured image data, the two peaks appearing in the phase-limited correlation information (PoC) are the component 20, the component mounting pin 40, and these two objects. It is possible to easily determine which object corresponds to.
 ロボット制御装置においても、学習モデル入力データとして、
 (Min2)カメラ撮影画像の撮影タイミングのカメラ撮影画像
 この撮影画像を追加することで、入力したカメラ撮影画像と、位相限定相関情報(PoC)内のピークとの対応関係を容易に判別することが可能となり、処理が効率化される。
Also in the robot control device, as learning model input data
(Min2) Camera-captured image of camera-captured image capture timing By adding this captured image, it is possible to easily determine the correspondence between the input camera-captured image and the peak in the phase-limited correlation information (PoC). It becomes possible and the processing becomes efficient.
 図14は、この設定例(4)に対応する学習処理装置160の構成例を示す図である。
 学習処理装置160の学習処理部162には、以下の各データが入力されている。
 (a1)位相限定相関情報(PoC)算出部161の生成した位相限定相関情報(PoC)171、
 (a2)ロボット制御部125がロボット100の制御のために生成したロボット制御パラメータ126、
 さらに、
 (a3)カメラ120が撮影したカメラ撮影画像121
FIG. 14 is a diagram showing a configuration example of the learning processing device 160 corresponding to the setting example (4).
The following data are input to the learning processing unit 162 of the learning processing device 160.
(A1) Phase-limited correlation information (PoC) 171 generated by the calculation unit 161,
(A2) Robot control parameter 126 generated by the robot control unit 125 for controlling the robot 100,
Moreover,
(A3) Camera-photographed image 121 taken by the camera 120
 学習処理部162は、これらの入力データを用いた機械学習処理を実行する。
 この学習処理に際して、学習処理部162は、位相限定相関情報(PoC)に出現している2つのピークが、部品20と部品取り付けピン40、これら2つのオブジェクトのどちらのオブジェクトに対応するかを確実に判別することができ、精度の高い学習処理を行うことができる。
The learning processing unit 162 executes machine learning processing using these input data.
In this learning process, the learning process unit 162 ensures that the two peaks appearing in the phase-limited correlation information (PoC) correspond to the component 20, the component mounting pin 40, or which of these two objects. It is possible to perform highly accurate learning processing.
 図15は、この図14に示す学習処理装置160の学習処理部162に対する入力データの具体例を示した図である。
 図15に示すように、学習処理部162は、
 (A)カメラ撮影画像
 (B)学習用位相限定相関情報(PoC)、
 (C)挿入成功時のロボット制御パラメータ、
 これらのデータの組を多数、入力する。
FIG. 15 is a diagram showing a specific example of input data for the learning processing unit 162 of the learning processing device 160 shown in FIG.
As shown in FIG. 15, the learning processing unit 162
(A) Camera captured image (B) Phase-limited correlation information for learning (PoC),
(C) Robot control parameters when insertion is successful,
Enter many sets of these data.
 「(A)カメラ撮影画像」は、部品20の部品取り付けピン40に対する挿入が成功した際の部員挿入直前の画像である。
 「(B)学習用位相限定相関情報(PoC)」は、部品20の部品取り付けピン40に対する挿入が成功した際の部品挿入直前の画像(カメラ撮影画像121)と、模範画像151とに基づいて、位相限定相関情報(PoC)算出部161が算出した位相限定相関情報(PoC)である。
 「(C)挿入成功時のロボット制御パラメータ」は、対応付けられた「(B)学習用位相限定相関情報(PoC)」の算出に適用した画像(カメラ撮影画像121)の撮影タイミングにおけるロボット制御パラメータである。
The “(A) camera-photographed image” is an image immediately before the member is inserted when the component 20 is successfully inserted into the component mounting pin 40.
"(B) Phase-limited correlation information for learning (PoC)" is based on an image immediately before the component is inserted (camera image 121) when the component 20 is successfully inserted into the component mounting pin 40 and a model image 151. , Phase-limited correlation information (PoC) This is the phase-limited correlation information (PoC) calculated by the calculation unit 161.
"(C) Robot control parameter when insertion is successful" is robot control at the shooting timing of the image (camera shot image 121) applied to the calculation of the associated "(B) phase-limited correlation information for learning (PoC)". It is a parameter.
 このように学習サンプルとして、(A)カメラ撮影画像と、(B)学習用位相限定相関情報(PoC)と、(C)挿入成功時のロボット制御パラメータのデータセットを大量に用意し、これらを学習処理部162に入力する。 In this way, as a learning sample, (A) a camera-captured image, (B) learning phase-limited correlation information (PoC), and (C) a large amount of data sets of robot control parameters at the time of successful insertion are prepared, and these are prepared. Input to the learning processing unit 162.
 学習処理部162は、これらの入力データに対して学習処理を実行し、学習モデル172を生成する。
 学習処理部162が生成する学習モデル172は、
 入力を、
 学習用位相限定相関情報(PoC)と、
 カメラ撮影画像(部品挿入直前のカメラ撮影画像)、
 出力を、ロボット制御パラメータ目標値、すなわち、部品20を部品取り付けピン40に挿入させるための最適なロボット制御パラメータであるロボット制御パラメータ目標値、
 上記設定の学習モデルである。
The learning processing unit 162 executes learning processing on these input data and generates a learning model 172.
The learning model 172 generated by the learning processing unit 162
Input,
Phase-limited correlation information for learning (PoC) and
Camera shot image (camera shot image just before inserting parts),
The output is the robot control parameter target value, that is, the robot control parameter target value, which is the optimum robot control parameter for inserting the component 20 into the component mounting pin 40.
This is a learning model with the above settings.
 上述したように、学習処理部162は、位相限定相関情報(PoC)に出現している2つのピークが、部品20と部品取り付けピン40、これら2つのオブジェクトのどちらのオブジェクトに対応するかを確実に判別することができ、精度の高い学習処理を行うことができる。 As described above, the learning processing unit 162 ensures that the two peaks appearing in the phase-limited correlation information (PoC) correspond to the component 20, the component mounting pin 40, and which of these two objects. It is possible to perform highly accurate learning processing.
  [5.部品取得位置での撮影画像を用いた実施例について]
 次に、部品取得位置での撮影画像を用いた実施例について説明する。
[5. About the example using the photographed image at the part acquisition position]
Next, an example using the captured image at the component acquisition position will be described.
 上述した実施例では、位相限定相関情報(PoC)の生成に利用する画像として、部品20を部品取り付けピン40に取り付ける直前に撮影された画像を利用していた。 In the above-described embodiment, the image taken immediately before the component 20 is attached to the component mounting pin 40 is used as the image used for generating the phase-limited correlation information (PoC).
 学習処理装置やロボット制御装置の位相限定相関情報(PoC)算出部に入力する画像は、他のタイミングで撮影した画像を適用してもよい。
 例えば、図16に示すように、ロボット100が部品ボックス10から部品20を取り出したタイミングで、カメラ210を用いて画像を撮影し、図16に示すような部品取得位置カメラ撮影画像211を取得する。
An image taken at another timing may be applied to the image input to the phase-limited correlation information (PoC) calculation unit of the learning processing device or the robot control device.
For example, as shown in FIG. 16, at the timing when the robot 100 takes out the component 20 from the component box 10, an image is captured by using the camera 210, and the component acquisition position camera captured image 211 as shown in FIG. 16 is acquired. ..
 この部品取得位置カメラ撮影画像211と、上述の実施例と同様、ロボット100が部品20を部品取り付けピン40に取り付ける直前の画像をカメラ250で撮影し、図16に示す部品装着位置カメラ撮影画像251を取得する。
 これら2つの異なるタイミングで撮影された画像を用いて、2種類の位相限定相関情報(PoC)を算出して、学習処理を行う。
Similar to the above-described embodiment, the component acquisition position camera captured image 211 and the image immediately before the robot 100 attaches the component 20 to the component mounting pin 40 are captured by the camera 250, and the component mounting position camera captured image 251 shown in FIG. To get.
Two types of phase-limited correlation information (PoC) are calculated using these two images taken at different timings, and learning processing is performed.
 図17は、先に図9を参照して説明した実施例1の学習処理装置160に対する本実施例での追加構成を示す図である。
 図17に示す学習処理装置230の位相限定相関情報(PoC)算出部231は、この部品取得位置カメラ撮影画像211と、記憶部150に格納された部品取得位置模範画像221との2つの画像の位相限定相関情報(PoC)を算出する。
FIG. 17 is a diagram showing an additional configuration in this embodiment with respect to the learning processing device 160 of the first embodiment described above with reference to FIG.
The phase-limited correlation information (PoC) calculation unit 231 of the learning processing device 230 shown in FIG. 17 has two images of the component acquisition position camera captured image 211 and the component acquisition position model image 221 stored in the storage unit 150. The phase-limited correlation information (PoC) is calculated.
 記憶部150に格納された部品取得位置模範画像221は理想的な部品20の取得状況を示す画像であり、予め撮影された画像である。 The component acquisition position model image 221 stored in the storage unit 150 is an image showing the acquisition status of the ideal component 20, and is an image taken in advance.
 部品取得位置カメラ撮影画像211や、模範画像221には、部品20のみが撮影されており、先に説明した実施例のように部品取り付けピン40は撮影されていない。
 従って、位相限定相関情報(PoC)算出部231が生成する位相限定相関情報(PoC)241は、図に示すように部品20の2つの画像間の位置ずれに相当する座標位置に1つのピークが検出されるのみの画像となる。
Only the component 20 is photographed in the component acquisition position camera image 211 and the model image 221, and the component mounting pin 40 is not photographed as in the above-described embodiment.
Therefore, the phase-limited correlation information (PoC) 241 generated by the phase-limited correlation information (PoC) calculation unit 231 has one peak at the coordinate position corresponding to the positional deviation between the two images of the component 20 as shown in the figure. The image will only be detected.
 学習処理部232は、この画像を用いて学習処理を実行する。
 図18は、学習処理部232の実行する処理の詳細について説明する図である。
 図18に示すように、学習処理部232は、
 (A)部品取得位置対応学習用位相限定相関情報(PoC)
 (B)部品装着位置対応学習用位相限定相関情報(PoC)、
 (C)挿入成功時のロボット制御パラメータ、
 これらのデータの組を多数、入力する。
The learning processing unit 232 executes the learning process using this image.
FIG. 18 is a diagram illustrating details of the processing executed by the learning processing unit 232.
As shown in FIG. 18, the learning processing unit 232 is
(A) Phase-limited correlation information (PoC) for learning corresponding to the component acquisition position
(B) Phase-limited correlation information (PoC) for learning corresponding to the mounting position of parts,
(C) Robot control parameters when insertion is successful,
Enter many sets of these data.
 「(A)部品取得位置対応学習用位相限定相関情報(PoC)」は、部品20の部品取り付けピン40に対する挿入が成功した際の部品取得位置における撮影画像(カメラ撮影画像211)と、模範画像151とに基づいて、位相限定相関情報(PoC)算出部161が算出した位相限定相関情報(PoC)である。
 「(B)部品装着位置対応学習用位相限定相関情報(PoC)」は、部品20の部品取り付けピン40に対する挿入が成功した際の部品挿入直前の画像(カメラ撮影画像121)と、模範画像151とに基づいて、位相限定相関情報(PoC)算出部161が算出した位相限定相関情報(PoC)である。
 「(C)挿入成功時のロボット制御パラメータ」は、対応付けられた「(B)学習用位相限定相関情報(PoC)」の算出に適用した画像(カメラ撮影画像121)の撮影タイミングにおけるロボット制御パラメータである。
"(A) Phase-limited correlation information (PoC) for learning for component acquisition position" is a photographed image (camera image 211) at the component acquisition position when the component 20 is successfully inserted into the component mounting pin 40, and a model image. This is the phase-limited correlation information (PoC) calculated by the phase-limited correlation information (PoC) calculation unit 161 based on 151.
"(B) Phase-limited correlation information (PoC) for learning component mounting position correspondence" includes an image (camera image 121) immediately before component insertion when the component 20 is successfully inserted into the component mounting pin 40, and a model image 151. Based on the above, it is the phase-limited correlation information (PoC) calculated by the phase-limited correlation information (PoC) calculation unit 161.
"(C) Robot control parameter when insertion is successful" is robot control at the shooting timing of the image (camera shot image 121) applied to the calculation of the associated "(B) phase-limited correlation information for learning (PoC)". It is a parameter.
 なお、「(C)挿入成功時のロボット制御パラメータ」は、例えば、ロボットのアームの位置(x,y,z)とアーム姿勢を示すロール、ピッチ、ヨー(roll,pitch,yaw)からなる6次元実数値ベクトル(アクション)等である。 The "(C) robot control parameter when the insertion is successful" is composed of, for example, the position (x, y, z) of the robot arm and the roll, pitch, and yaw (roll, pitch, yaw) indicating the arm posture. Dimensional real-valued vector (action), etc.
 このように学習サンプルとして、(A)部品取得位置対応学習用位相限定相関情報(PoC)と、(B)部品装着位置対応学習用位相限定相関情報(PoC)と、(C)挿入成功時のロボット制御パラメータのペアを大量に用意し、これらを学習処理部232に入力する。
 学習処理部232は、これらの入力データに対して学習処理を実行し、学習モデル242を生成する。
In this way, as learning samples, (A) phase-limited correlation information (PoC) for learning for component acquisition position, (B) phase-limited correlation information (PoC) for learning for component mounting position, and (C) when insertion is successful. A large number of pairs of robot control parameters are prepared, and these are input to the learning processing unit 232.
The learning processing unit 232 executes learning processing on these input data and generates a learning model 242.
 学習処理部232が生成する学習モデル242は、
 入力を、部品取得位置対応位相限定相関情報(PoC)と、部品装着位置対応位相限定相関情報(PoC)とし、
 出力を、ロボット制御パラメータ目標値、すなわち、部品20を部品取り付けピン40に挿入させるための最適なロボット制御パラメータであるロボット制御パラメータ目標値、
 上記設定とした学習モデルである。
The learning model 242 generated by the learning processing unit 232 is
Inputs are phase-limited correlation information (PoC) corresponding to the component acquisition position and phase-limited correlation information (PoC) corresponding to the component mounting position.
The output is the robot control parameter target value, that is, the robot control parameter target value, which is the optimum robot control parameter for inserting the component 20 into the component mounting pin 40.
This is a learning model with the above settings.
 なお、学習処理部232において実行する学習処理は、いわゆる機械学習であり、様々な学習アルゴリズムの適用が可能である。例えば先に説明したディープニューラルネットワーク(DNN)を利用した学習処理が適用可能である。 The learning process executed by the learning processing unit 232 is so-called machine learning, and various learning algorithms can be applied. For example, the learning process using the deep neural network (DNN) described above can be applied.
 前述したように、例えば、畳み込みニューラルネットワークであるCNN(Convolutional Neural Network)に、BN(Batch Normalization)や、ReLU(Rectified Linear Unit)を組み合わせた学習処理を適用することができる。
 なお、学習処理部162は、この他にも様々な学習アルゴリズムを適用した学習処理部として実現可能である。
As described above, for example, a learning process in which a convolutional neural network CNN (Convolutional Neural Network) is combined with a BN (Batch Rectification) or a ReLU (Rectified Linear Unit) can be applied.
The learning processing unit 162 can be realized as a learning processing unit to which various learning algorithms are applied.
 学習処理部232は、例えば上述したCNNに、BNや、ReLUを組み合わせたニューラルネットワークを用いた学習処理、例えば確率的勾配降下法を用いてニューラルネットワークの重みを学習する。
 学習処理部232は、この学習処理より、
 入力を、部品取得位置対応位相限定相関情報(PoC)と、部品装着位置対応位相限定相関情報(PoC)とし、
 出力を、ロボット制御パラメータ目標値、すなわち、部品20を部品取り付けピン40に挿入させるための最適なロボット制御パラメータであるロボット制御パラメータ目標値、
 上記設定とした学習モデル242を生成する。
The learning processing unit 232 learns the weight of the neural network by using, for example, a learning process using a neural network in which BN or ReLU is combined with the above-mentioned CNN, for example, a stochastic gradient descent method.
The learning processing unit 232 is subjected to this learning processing.
Inputs are phase-limited correlation information (PoC) corresponding to the component acquisition position and phase-limited correlation information (PoC) corresponding to the component mounting position.
The output is the robot control parameter target value, that is, the robot control parameter target value, which is the optimum robot control parameter for inserting the component 20 into the component mounting pin 40.
The learning model 242 set as described above is generated.
 生成した学習モデル242を利用することで、実際のロボット100の制御を行うことができる。
 図19は、学習モデル242を利用したロボット100の制御を行うロボット制御装置260の構成と処理を説明する図である。
By using the generated learning model 242, it is possible to control the actual robot 100.
FIG. 19 is a diagram illustrating the configuration and processing of the robot control device 260 that controls the robot 100 using the learning model 242.
 図19に示すように、ロボット制御装置260は、位相限定相関情報(PoC)算出部261a,261b、学習モデル242、ロボット制御部125を有する。 As shown in FIG. 19, the robot control device 260 has a phase-limited correlation information (PoC) calculation unit 261a, 261b, a learning model 242, and a robot control unit 125.
 位相限定相関情報(PoC)算出部261aは、ロボット100が部品20を部品ボックス10から取り出した状態でカメラ210が撮影した部品取得位置カメラ撮影画像211と、記憶部a150aに格納された部品取得位置模範画像221を入力して、これら2つの画像から部品取得位置対応位相限定相関情報(PoC)271aを算出する。 The phase-limited correlation information (PoC) calculation unit 261a is a component acquisition position captured by the camera 210 with the robot 100 taking out the component 20 from the component box 10, and a component acquisition position stored in the storage unit a150a. The model image 221 is input, and the component acquisition position corresponding phase-limited correlation information (PoC) 271a is calculated from these two images.
 また、位相限定相関情報(PoC)算出部261bは、ロボット100が部品20を部品取り付けピン40の上に移動させた状態でカメラ250が撮影した部品装着位置カメラ撮影画像251と、記憶部b150bに格納された部品装着位置模範画像242を入力して、これら2つの画像から部品装着位置対応位相限定相関情報(PoC)271bを算出する。 Further, the phase-limited correlation information (PoC) calculation unit 261b is attached to the component mounting position camera image 251 captured by the camera 250 while the robot 100 moves the component 20 onto the component mounting pin 40 and the storage unit b150b. The stored component mounting position model image 242 is input, and the component mounting position corresponding phase-limited correlation information (PoC) 271b is calculated from these two images.
 なお、部品取得位置対応位相限定相関情報(PoC)271aを生成した元画像には1つのオブジェクト、すなわち、部品20が被写体として含まれており、位相限定相関情報(PoC)算出部261aの生成した部品取得位置対応位相限定相関情報(PoC)271aには、1つのオブジェクトについての画像間のずれ量に応じた座標位置に1つのピークが出現している。 The original image that generated the phase-limited correlation information (PoC) 271a corresponding to the component acquisition position includes one object, that is, the component 20 as a subject, and was generated by the phase-limited correlation information (PoC) calculation unit 261a. In the phase-limited correlation information (PoC) 271a corresponding to the component acquisition position, one peak appears at the coordinate position corresponding to the amount of deviation between the images for one object.
 一方、部品装着位置対応位相限定相関情報(PoC)271bを生成した元画像には2つのオブジェクト、すなわち、部品20と部品取り付けピン40、これら2つのオブジェクトが被写体として含まれており、位相限定相関情報(PoC)算出部261bの生成した部品装着位置対応位相限定相関情報(PoC)271bには、これら2つのオブジェクトについての画像間のずれ量に応じた座標位置にピークが出現している。これら2つのピークに対応する2つの座標(x,y)の一方が部品20のずれ量であり、他方が部品取り付けピン40のずれ量に相当する。 On the other hand, the original image that generated the phase-limited correlation information (PoC) 271b corresponding to the component mounting position includes two objects, that is, the component 20, the component mounting pin 40, and these two objects as subjects, and the phase-limited correlation. In the component mounting position-corresponding phase-limited correlation information (PoC) 271b generated by the information (PoC) calculation unit 261b, a peak appears at a coordinate position corresponding to the amount of deviation between the images of these two objects. One of the two coordinates (x, y) corresponding to these two peaks corresponds to the amount of deviation of the component 20, and the other corresponds to the amount of deviation of the component mounting pin 40.
 位相限定相関情報(PoC)算出部261a,261bが算出した部品取得位置対応位相限定相関情報(PoC)271aと、部品装着位置対応位相限定相関情報(PoC)271bは、学習モデル242に入力される。 The component acquisition position-corresponding phase-limited correlation information (PoC) 271a calculated by the phase-limited correlation information (PoC) calculation units 261a and 261b and the component mounting position-corresponding phase-limited correlation information (PoC) 271b are input to the learning model 242. ..
 学習モデル242は、先に図18を参照して説明した学習処理部232が生成した学習モデル242である。
 この学習モデル242は、
 入力を、部品取得位置対応位相限定相関情報(PoC)と、部品装着位置対応位相限定相関情報(PoC)とし、
 出力を、ロボット制御パラメータ目標値、すなわち、部品20を部品取り付けピン40に挿入させるための最適なロボット制御パラメータであるロボット制御パラメータ目標値、
 上記設定とした学習モデル242である。
The learning model 242 is a learning model 242 generated by the learning processing unit 232 described above with reference to FIG.
This learning model 242
Inputs are phase-limited correlation information (PoC) corresponding to the component acquisition position and phase-limited correlation information (PoC) corresponding to the component mounting position.
The output is the robot control parameter target value, that is, the robot control parameter target value, which is the optimum robot control parameter for inserting the component 20 into the component mounting pin 40.
It is a learning model 242 set as described above.
 学習モデル242は、位相限定相関情報(PoC)算出部261a,261bが算出した部品取得位置対応位相限定相関情報(PoC)271aと、部品装着位置対応位相限定相関情報(PoC)271bを取得し、取得した位相限定相関情報(PoC)算出部261a,261bが算出した部品取得位置対応位相限定相関情報(PoC)271aと、部品装着位置対応位相限定相関情報(PoC)271bに対応するロボットの最適制御パラメータ、すなわち図19に示すロボット制御パラメータ目標値273を出力する。 The learning model 242 acquires the component acquisition position-corresponding phase-limited correlation information (PoC) 271a calculated by the phase-limited correlation information (PoC) calculation units 261a and 261b and the component mounting position-corresponding phase-limited correlation information (PoC) 271b. Optimal control of the robot corresponding to the component acquisition position corresponding phase limited correlation information (PoC) 271a calculated by the acquired phase limited correlation information (PoC) calculation units 261a and 261b and the component mounting position corresponding phase limited correlation information (PoC) 271b. The parameter, that is, the robot control parameter target value 273 shown in FIG. 19 is output.
 図19に示すように、ロボット制御パラメータ目標値273は、ロボット制御部125に入力され、ロボット制御部125は、現時点のロボット制御パラメータ126とロボット制御パラメータ目標値273との差分を算出し、差分がある場合は、差分量をゼロ、または削減するようにロボット100の補正制御を行う。 As shown in FIG. 19, the robot control parameter target value 273 is input to the robot control unit 125, and the robot control unit 125 calculates the difference between the current robot control parameter 126 and the robot control parameter target value 273, and the difference. If there is, the robot 100 is corrected and controlled so that the difference amount is zero or reduced.
 このようにロボット制御パラメータ目標値273を用いてロボット100の制御を行うことで、ロボット100のアーム先端に取り付けられた部品20の位置、姿勢の補正制御が行われ、その後、部品20の吸着を解除することで部品20を部品取り付けピン40に確実に挿入することが可能となる。 By controlling the robot 100 using the robot control parameter target value 273 in this way, the position and orientation of the component 20 attached to the tip of the arm of the robot 100 are corrected and controlled, and then the component 20 is attracted. By releasing the component 20, the component 20 can be securely inserted into the component mounting pin 40.
  [6.学習モデルの更新処理について]
 次に、学習モデルの更新処理について説明する。
 学習処理装置が生成する学習モデルは、遂次、更新することが可能である。
 例えば、ロボット100が実際に製造工程において動作している期間、継続的にカメラで新たな画像を撮影し、この撮影画像を用いて位相限定相関情報(PoC)を生成して、生成した位相限定相関情報(PoC)を学習処理部に入力して学習処理を継続的に実行して学習モデルを更新することができる。
[6. About learning model update process]
Next, the learning model update process will be described.
The learning model generated by the learning processing device can be updated one after another.
For example, during the period when the robot 100 is actually operating in the manufacturing process, a new image is continuously captured by the camera, and the captured image is used to generate phase-limited correlation information (PoC) to generate the phase-limited correlation information (PoC). Correlation information (PoC) can be input to the learning processing unit to continuously execute the learning process to update the learning model.
 なお、学習処理部に対する入力データとしては、先に図13を参照して説明したように、様々な設定が可能である。
 例えば、図13の設定(2)を参照して説明したように、
 (A)学習処理装置の学習処理部の入力データとして、
 (a1)部品挿入タイミングのカメラ撮影画像と模範画像間の位相限定相関情報
 (a2)部品挿入タイミングのカメラ撮影画像の撮影タイミングにおけるロボット制御パラメータ
 (a3)部品挿入成功、失敗を示す挿入成否フラグ
 これらのデータを入力する設定とすれば、部品挿入成功、失敗に関わらず、全ての撮影画像データを利用することが可能となる。
As the input data for the learning processing unit, various settings can be made as described above with reference to FIG.
For example, as described with reference to setting (2) in FIG.
(A) As input data of the learning processing unit of the learning processing device
(A1) Phase-limited correlation information between the camera-captured image of the component insertion timing and the model image (a2) Robot control parameters at the capture timing of the camera-captured image of the component insertion timing (a3) Insertion success / failure flags indicating success or failure of component insertion These If it is set to input the data of, it is possible to use all the captured image data regardless of the success or failure of the component insertion.
 このように失敗情報も学習データとして含めることで、成功時と失敗時の異なる位相限定相関情報を分類することが可能となり、精度の高い学習モデル出力データ、すなわち、ロボット制御パラメータ目標値を生成して出力することができる。 By including the failure information as learning data in this way, it is possible to classify different phase-limited correlation information at the time of success and failure, and generate highly accurate learning model output data, that is, a robot control parameter target value. Can be output.
 なお、学習処理部では、例えば、通常のニューラルネットの確率的勾配降下法によるパラメータ更新が行われる。学習後のニューラルネットパラメータは、例えばファイルに書き出され、このファイルを利用して適宜、学習モデルを構成するネットワークのパラメータ更新が行われる。 In the learning processing unit, for example, parameters are updated by the stochastic gradient descent method of a normal neural network. The neural network parameters after training are written to, for example, a file, and the parameters of the network constituting the training model are updated as appropriate using this file.
 なお、上記で説明した学習処理は、カメラ撮影画像を利用して、ロボットの制御パラメータ(アクション)を決定する回帰学習に相当するが、さらに、報酬に応じた学習モデルの更新を行う強化学習型のモデルとしてもよい。 The learning process described above corresponds to regression learning that determines the control parameters (actions) of the robot using images taken by the camera, but is a reinforcement learning type that updates the learning model according to the reward. It may be a model of.
 なお、上述した実施例では、位相限定相関情報を用いた学習処理装置、およびロボット制御装置について説明したが、先に説明したように、本開示の学習処理装置、およびロボット制御装置は、位相限定相関情報に限らず、回転不変系位相限定相関情報や、画像位相スペクトルを用いた画像相関情報等、画像のずれ情報を画素(ビクセル)単位で算出可能な様々な画像相関情報を適用した構成が可能である。 In the above-described embodiment, the learning processing device and the robot control device using the phase-limited correlation information have been described. However, as described above, the learning processing device and the robot control device of the present disclosure are phase-limited. Not limited to correlation information, a configuration that applies various image correlation information that can calculate image deviation information in pixel (bixel) units, such as rotation-invariant phase-limited correlation information and image correlation information using image phase spectra. It is possible.
  [7.学習処理装置、およびロボット制御装置のハードウェア構成例について]
 次に、学習処理装置、およびロボット制御装置のハードウェア構成の一例について説明する。
[7. About hardware configuration example of learning processing device and robot control device]
Next, an example of the hardware configuration of the learning processing device and the robot control device will be described.
 上述した実施例で説明した学習処理装置、およびロボット制御装置は個別の装置として構成することも可能であり、また、1つの装置として構成することも可能である。
 学習処理装置、およびロボット制御装置は、例えばPC等の情報処理装置を利用して実現することができる。
 図20は、本開示の学習処理装置や、ロボット制御装置を構成する情報処理装置の一構成例を示すブロック図である。
The learning processing device and the robot control device described in the above-described embodiment can be configured as individual devices, or can be configured as one device.
The learning processing device and the robot control device can be realized by using an information processing device such as a PC.
FIG. 20 is a block diagram showing a configuration example of the learning processing device of the present disclosure and an information processing device constituting the robot control device.
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。 The CPU (Central Processing Unit) 301 functions as a control unit or a data processing unit that executes various processes according to a program stored in the ROM (Read Only Memory) 302 or the storage unit 308. For example, the process according to the sequence described in the above-described embodiment is executed. The RAM (Random Access Memory) 303 stores programs and data executed by the CPU 301. These CPU 301, ROM 302, and RAM 303 are connected to each other by a bus 304.
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種スイッチ、キーボード、マウス、マイクロホン、センサーなどよりなる入力部306、ディスプレイ、スピーカーなどよりなる出力部307が接続されている。CPU301は、入力部306から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部307に出力する。 The CPU 301 is connected to the input / output interface 305 via the bus 304, and the input / output interface 305 is connected to an input unit 306 consisting of various switches, a keyboard, a mouse, a microphone, a sensor, etc., and an output unit 307 consisting of a display, a speaker, and the like. Has been done. The CPU 301 executes various processes in response to a command input from the input unit 306, and outputs the process results to, for example, the output unit 307.
 入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、Wi-Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。 The storage unit 308 connected to the input / output interface 305 is composed of, for example, a hard disk or the like, and stores programs executed by the CPU 301 and various data. The communication unit 309 functions as a transmission / reception unit for Wi-Fi communication, Bluetooth (registered trademark) (BT) communication, and other data communication via a network such as the Internet or a local area network, and communicates with an external device.
 入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。 The drive 310 connected to the input / output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and records or reads data.
  [8.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
[8. Summary of the structure of this disclosure]
As described above, the examples of the present disclosure have been described in detail with reference to the specific examples. However, it is self-evident that one of ordinary skill in the art can modify or substitute the examples without departing from the gist of the present disclosure. That is, the present invention has been disclosed in the form of an example, and should not be construed in a limited manner. In order to judge the gist of this disclosure, the column of claims should be taken into consideration.
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) カメラ撮影画像と、模範画像の画像相関情報を生成する画像相関情報算出部と、
 前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する学習処理を実行する学習処理部を有する学習処理装置。
The technology disclosed in the present specification can have the following configuration.
(1) An image correlation information calculation unit that generates image correlation information between a camera-photographed image and a model image,
A learning processing device having a learning processing unit that executes a learning process for inputting the image correlation information and generating a learning model that outputs control parameters for controlling the position of an object captured by the camera image.
 (2) 前記画像相関情報は、位相限定相関情報である(1)に記載の学習処理装置。 (2) The learning processing device according to (1), wherein the image correlation information is phase-limited correlation information.
 (3) 前記画像相関情報算出部の生成する前記画像相関情報は、
 前記カメラ撮影画像と、前記模範画像に含まれるオブジェクトの位置ずれに応じた座標位置にピークを持つ情報である(1)または(2)に記載の学習処理装置。
(3) The image correlation information generated by the image correlation information calculation unit is
The learning processing device according to (1) or (2), which is information having a peak at a coordinate position corresponding to a positional deviation between the camera-captured image and an object included in the model image.
 (4) 前記カメラ撮影画像は、
 ロボットにより取得されたオブジェクトを含む画像であり、
 前記模範画像は、前記オブジェクトの理想的な位置を有する画像である(1)~(3)いずれかに記載の学習処理装置。
(4) The image taken by the camera is
An image containing objects acquired by a robot
The learning processing device according to any one of (1) to (3), wherein the model image is an image having an ideal position of the object.
 (5) 前記カメラ撮影画像は、
 ロボットにより取得された部品オブジェクトと、該部品オブジェクトの装着先オブジェクトの2つのオブジェクトを含む画像であり、
 前記模範画像は、前記部品オブジェクトを前記装着先オブジェクトに確実に装着可能となる2つのオブジェクトの位置関係を有する画像である(1)~(4)いずれかに記載の学習処理装置。
(5) The image taken by the camera is
It is an image including two objects, a part object acquired by a robot and an object to which the part object is mounted.
The learning processing device according to any one of (1) to (4), wherein the model image is an image having a positional relationship between two objects that can reliably mount the component object on the mounting destination object.
 (6) 前記画像相関情報算出部の生成する前記画像相関情報は、
 前記カメラ撮影画像と、前記模範画像に含まれる前記部品オブジェクトと、前記装着先オブジェクト各々に対応するオブジェクトの位置ずれに応じた座標位置に個別のピークを持つ情報である(5)に記載の学習処理装置。
(6) The image correlation information generated by the image correlation information calculation unit is
The learning according to (5), which is information having individual peaks at coordinate positions corresponding to the positional deviations of the camera-captured image, the component object included in the model image, and the object corresponding to each of the mounting destination objects. Processing equipment.
 (7) 前記学習処理部は、
 前記画像相関情報と、
 前記カメラ撮影画像の撮影タイミングにおける前記オブジェクトの位置制御用の制御パラメータを入力して、前記学習モデルを生成する学習処理を実行する(1)~(6)いずれかに記載の学習処理装置。
(7) The learning processing unit
With the image correlation information
The learning processing apparatus according to any one of (1) to (6), wherein a learning process for generating the learning model is executed by inputting a control parameter for controlling the position of the object at the shooting timing of the image captured by the camera.
 (8) 前記カメラ撮影画像は、ロボットにより取得された部品オブジェクトの装着先オブジェクトに対する装着処理が成功した際の直前の画像であり、
 前記学習処理部は、
 ロボットにより取得された部品オブジェクトの装着先オブジェクトに対する装着処理が成功した際の直前の画像を用いて生成された前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する(1)~(7)いずれかに記載の学習処理装置。
(8) The image captured by the camera is an image immediately before the successful mounting process of the component object acquired by the robot on the mounting destination object.
The learning processing unit
For inputting the image correlation information generated using the image immediately before the successful mounting process of the component object acquired by the robot to the mounting destination object, and controlling the position of the object captured in the camera captured image. The learning processing apparatus according to any one of (1) to (7), which generates a learning model that outputs control parameters.
 (9) 前記カメラ撮影画像は、ロボットにより取得された部品オブジェクトの装着先オブジェクトに対する装着処理が成功した際の直前の画像と、失敗した際の直前の画像の双方を含み、
 前記学習処理部は、
 ロボットにより取得された部品オブジェクトの装着先オブジェクトに対する装着処理が成功した際の直前の画像を用いて生成された前記画像相関情報と、失敗した際の直前の画像を用いて生成された前記画像相関情報と、装着処理の成否情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する(1)~(8)いずれかに記載の学習処理装置。
(9) The camera-captured image includes both an image immediately before the successful mounting process of the component object to the mounting destination object acquired by the robot and an image immediately before the failure.
The learning processing unit
The image correlation information generated by using the image immediately before the successful mounting process of the component object acquired by the robot and the image correlation generated by using the image immediately before the failure. The learning process according to any one of (1) to (8), which inputs information and success / failure information of the mounting process and generates a learning model that outputs a control parameter for controlling the position of the object captured by the camera image. Device.
 (10) 前記学習処理部は、
 ディープニューラルネットワーク(DNN)を利用した学習処理を実行する(1)~(9)いずれかに記載の学習処理装置。
(10) The learning processing unit is
The learning processing apparatus according to any one of (1) to (9), which executes a learning process using a deep neural network (DNN).
 (11) ロボットの制御を行なうロボット制御部と、
 前記ロボットに取得されたオブジェクトのカメラ撮影画像と、前記オブジェクトを理想的な位置に配置した模範画像との画像相関情報を生成する画像相関情報算出部と、
 前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータ目標値を出力する学習モデルを有し、
 前記ロボット制御部は、前記学習モデルの出力である制御パラメータ目標値を利用して前記ロボットを制御するロボット制御装置。
(11) A robot control unit that controls the robot and
An image correlation information calculation unit that generates image correlation information between a camera-photographed image of an object acquired by the robot and a model image in which the object is arranged at an ideal position.
It has a learning model that inputs the image correlation information and outputs a control parameter target value for controlling the position of the object captured in the image captured by the camera.
The robot control unit is a robot control device that controls the robot by using a control parameter target value that is an output of the learning model.
 (12) 前記画像相関情報は、位相限定相関情報である(11)に記載のロボット制御装置。 (12) The robot control device according to (11), wherein the image correlation information is phase-limited correlation information.
 (13) 前記画像相関情報算出部の生成する前記画像相関情報は、
 前記カメラ撮影画像と、前記模範画像に含まれるオブジェクトの位置ずれに応じた座標位置にピークを持つ情報である(11)または(12)に記載のロボット制御装置。
(13) The image correlation information generated by the image correlation information calculation unit is
The robot control device according to (11) or (12), which is information having a peak at a coordinate position corresponding to a positional deviation between the camera-captured image and an object included in the model image.
 (14) 前記カメラ撮影画像は、
 前記ロボットが取得した部品オブジェクトと、該部品オブジェクトの装着先オブジェクトの2つのオブジェクトを含む画像であり、
 前記模範画像は、前記部品オブジェクトを前記装着先オブジェクトに確実に装着可能となる2つのオブジェクトの位置関係を有する画像である(11)~(13)いずれかに記載のロボット制御装置。
(14) The image taken by the camera is
It is an image including two objects, a part object acquired by the robot and an object to which the part object is mounted.
The robot control device according to any one of (11) to (13), wherein the model image is an image having a positional relationship between two objects that can reliably mount the component object on the mounting destination object.
 (15) 前記画像相関情報算出部の生成する前記画像相関情報は、
 前記カメラ撮影画像と、前記模範画像に含まれる前記部品オブジェクトと、前記装着先オブジェクト各々に対応するオブジェクトの位置ずれに応じた座標位置に個別のピークを持つ情報である(14)に記載のロボット制御装置。
(15) The image correlation information generated by the image correlation information calculation unit is
The robot according to (14), which is information having individual peaks at coordinate positions corresponding to the positional deviations of the camera-captured image, the component object included in the model image, and the object corresponding to each of the mounting destination objects. Control device.
 (16) 学習処理装置において実行する学習処理方法であり、
 画像相関情報算出部が、カメラ撮影画像と、模範画像の画像相関情報を生成する画像相関情報算出ステップと、
 学習処理部が、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する学習処理を実行するステップを有する学習処理方法。
(16) This is a learning processing method executed in the learning processing device.
The image correlation information calculation unit generates the image correlation information of the camera-captured image and the model image, and the image correlation information calculation step.
A learning processing method comprising a step in which a learning processing unit executes a learning process of inputting the image correlation information and generating a learning model that outputs a control parameter for controlling the position of an object captured by the camera captured image.
 (17) ロボット制御装置において実行するロボット制御方法であり、
 ロボット制御部が、ロボットの制御を行なうステップと、
 画像相関情報算出部が、前記ロボットに取得されたオブジェクトのカメラ撮影画像と、前記オブジェクトを理想的な位置に配置した模範画像との画像相関情報を生成する画像相関情報算出ステップと、
 学習モデルに対して、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータ目標値を出力するステップと、
 前記ロボット制御部が、前記学習モデルの出力である制御パラメータ目標値を利用して前記ロボットを再制御するロボット制御方法。
(17) This is a robot control method executed in a robot control device.
The steps in which the robot control unit controls the robot,
An image correlation information calculation step in which the image correlation information calculation unit generates image correlation information between the camera-photographed image of the object acquired by the robot and the model image in which the object is arranged at an ideal position.
A step of inputting the image correlation information to the learning model and outputting a control parameter target value for controlling the position of the object captured in the image captured by the camera.
A robot control method in which the robot control unit recontrols the robot by using a control parameter target value which is an output of the learning model.
 (18) 学習処理装置において学習処理を実行させるプログラムであり、
 画像相関情報算出部に、カメラ撮影画像と、模範画像の画像相関情報を生成させる画像相関情報算出ステップと、
 学習処理部に、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する学習処理を実行させるステップを実行させるプログラム。
(18) A program that executes learning processing in a learning processing device.
An image correlation information calculation step that causes the image correlation information calculation unit to generate image correlation information of a camera-photographed image and a model image, and
A program that causes a learning process unit to execute a step of inputting the image correlation information and executing a learning process of generating a learning model that outputs control parameters for controlling the position of an object captured by the camera image.
 (19) ロボット制御装置においてロボット制御処理を実行させるプログラムであり、
 ロボット制御部に、ロボットの制御を行なわせるステップと、
 画像相関情報算出部に、前記ロボットに取得されたオブジェクトのカメラ撮影画像と、前記オブジェクトを理想的な位置に配置した模範画像との画像相関情報を生成させる画像相関情報算出ステップと、
 学習モデルに対して、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータ目標値を出力させるステップと、
 前記ロボット制御部に、前記学習モデルの出力である制御パラメータ目標値を利用して前記ロボットを再制御させるプログラム。
(19) A program that executes robot control processing in a robot control device.
Steps to let the robot control unit control the robot,
An image correlation information calculation step for causing the image correlation information calculation unit to generate image correlation information between the camera-photographed image of the object acquired by the robot and the model image in which the object is arranged at an ideal position.
A step of inputting the image correlation information to the learning model and outputting a control parameter target value for controlling the position of the captured object in the camera-captured image.
A program that causes the robot control unit to recontrol the robot by using a control parameter target value that is an output of the learning model.
 なお、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。 Note that the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both. When executing processing by software, install the program that records the processing sequence in the memory in the computer built in the dedicated hardware and execute it, or execute the program on a general-purpose computer that can execute various processing. It can be installed and run. For example, the program can be pre-recorded on a recording medium. In addition to installing on a computer from a recording medium, it is possible to receive a program via a network such as LAN (Local Area Network) or the Internet and install it on a recording medium such as a built-in hard disk.
 また、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。 Further, the various processes described in the specification are not only executed in chronological order according to the description, but may also be executed in parallel or individually as required by the processing capacity of the device that executes the processes. Further, in the present specification, the system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
 以上、説明したように、本開示の一実施例の構成によれば、位相限定相関情報を利用した学習処理やロボット制御処理を実行する装置、方法が実現される。
 具体的には、例えば、カメラ撮影画像と、模範画像の位相限定相関情報を生成する位相限定相関情報算出部と、位相限定相関情報を入力し、カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する。さらに、生成した学習モデルを利用してロボット制御を行うロボット制御装置であり、ロボットに取得されたオブジェクトのカメラ撮影画像と、オブジェクトを理想的な位置に配置した模範画像との位相限定相関情報を学習モデルに入力して、学習モデルからの出力として得られる制御パラメータ目標値を利用してロボットを制御する。
 本構成により、位相限定相関情報を利用した学習処理やロボット制御処理を実行する装置、方法が実現される。
As described above, according to the configuration of one embodiment of the present disclosure, a device and a method for executing learning processing and robot control processing using phase-limited correlation information are realized.
Specifically, for example, the phase-limited correlation information calculation unit that generates the phase-limited correlation information of the camera-captured image and the model image, and the phase-limited correlation information are input to control the position of the object captured in the camera-captured image. Generate a learning model that outputs the control parameters of. Furthermore, it is a robot control device that controls the robot using the generated learning model, and provides phase-limited correlation information between the camera-captured image of the object acquired by the robot and the model image in which the object is placed at an ideal position. The robot is controlled by inputting to the learning model and using the control parameter target value obtained as the output from the learning model.
With this configuration, a device and a method for executing learning processing and robot control processing using phase-limited correlation information are realized.
  10 部品ボックス
  20 部品
  30 ベルトコンベア
  40 部品取り付けピン
 100 ロボット
 101 吸着部
 120 カメラ
 121 カメラ撮影画像
 125 ロボット制御部
 126 ロボット制御パラメータ
 130 学習処理部
 131 学習モデル
 132 ロボット制御パラメータ目標値
 150 記憶部
 151 模範画像
 160 学習処理装置
 161 位相限定相関情報(PoC)算出部
 171 位相限定相関情報(PoC)
 172 学習モデル
 180 ロボット制御装置
 181 位相限定相関情報(PoC)算出部
 191 位相限定相関情報(PoC)
 192 ロボット制御パラメータ目標値
 210 カメラ
 211 部品取得位置カメラ撮影画像
 221 部品取得位置模範画像
 230 学習処理装置
 231 位相限定相関情報(PoC)算出部
 232 学習処理部
 241 位相限定相関情報(PoC)
 242 学習モデル
 250 カメラ
 251 部品装着位置カメラ撮影画像
 260 ロボット制御装置
 261 位相限定相関情報(PoC)算出部
 271 位相限定相関情報(PoC)
 273 ロボット制御パラメータ目標値
 301 CPU
 302 ROM
 303 RAM
 304 バス
 305 入出力インタフェース
 306 入力部
 307 出力部
 308 記憶部
 309 通信部
 310 ドライブ
 311 リムーバブルメディア
10 Parts box 20 Parts 30 Belt conveyor 40 Parts mounting pin 100 Robot 101 Suction unit 120 Camera 121 Camera image 125 Robot control unit 126 Robot control parameter 130 Learning processing unit 131 Learning model 132 Robot control parameter Target value 150 Storage unit 151 Model image 160 Learning processing device 161 Phase-limited correlation information (PoC) calculation unit 171 Phase-limited correlation information (PoC)
172 Learning model 180 Robot controller 181 Phase-limited correlation information (PoC) calculation unit 191 Phase-limited correlation information (PoC)
192 Robot control parameter Target value 210 Camera 211 Parts acquisition position Camera shot image 221 Parts acquisition position model image 230 Learning processing device 231 Phase-limited correlation information (PoC) Calculation unit 232 Learning processing unit 241 Phase-limited correlation information (PoC)
242 Learning model 250 Camera 251 Parts mounting position Camera image 260 Robot control device 261 Phase-limited correlation information (PoC) calculation unit 271 Phase-limited correlation information (PoC)
273 Robot control parameter target value 301 CPU
302 ROM
303 RAM
304 Bus 305 Input / output interface 306 Input unit 307 Output unit 308 Storage unit 309 Communication unit 310 Drive 311 Removable media

Claims (19)

  1.  カメラ撮影画像と、模範画像との画像相関情報を生成する画像相関情報算出部と、
     前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する学習処理を実行する学習処理部を有する学習処理装置。
    An image correlation information calculation unit that generates image correlation information between a camera-captured image and a model image,
    A learning processing device having a learning processing unit that executes a learning process for inputting the image correlation information and generating a learning model that outputs control parameters for controlling the position of an object captured by the camera image.
  2.  前記画像相関情報は、位相限定相関情報である請求項1に記載の学習処理装置。 The learning processing device according to claim 1, wherein the image correlation information is phase-limited correlation information.
  3.  前記画像相関情報算出部の生成する前記画像相関情報は、
     前記カメラ撮影画像と、前記模範画像に含まれるオブジェクトの位置ずれに応じた座標位置にピークを持つ情報である請求項1に記載の学習処理装置。
    The image correlation information generated by the image correlation information calculation unit is
    The learning processing device according to claim 1, which is information having a peak at a coordinate position corresponding to a positional deviation between the camera-captured image and an object included in the model image.
  4.  前記カメラ撮影画像は、
     ロボットにより取得されたオブジェクトを含む画像であり、
     前記模範画像は、前記オブジェクトの理想的な位置を有する画像である請求項1に記載の学習処理装置。
    The image taken by the camera is
    An image containing objects acquired by a robot
    The learning processing device according to claim 1, wherein the model image is an image having an ideal position of the object.
  5.  前記カメラ撮影画像は、
     ロボットにより取得された部品オブジェクトと、該部品オブジェクトの装着先オブジェクトの2つのオブジェクトを含む画像であり、
     前記模範画像は、前記部品オブジェクトを前記装着先オブジェクトに確実に装着可能となる2つのオブジェクトの位置関係を有する画像である請求項1に記載の学習処理装置。
    The image taken by the camera is
    It is an image including two objects, a part object acquired by a robot and an object to which the part object is mounted.
    The learning processing device according to claim 1, wherein the model image is an image having a positional relationship between two objects that can reliably mount the component object on the mounting destination object.
  6.  前記画像相関情報算出部の生成する前記画像相関情報は、
     前記カメラ撮影画像と、前記模範画像に含まれる前記部品オブジェクトと、前記装着先オブジェクト各々に対応するオブジェクトの位置ずれに応じた座標位置に個別のピークを持つ情報である請求項5に記載の学習処理装置。
    The image correlation information generated by the image correlation information calculation unit is
    The learning according to claim 5, which is information having individual peaks at coordinate positions corresponding to the positional deviations of the camera-captured image, the component object included in the model image, and the object corresponding to each of the mounting destination objects. Processing equipment.
  7.  前記学習処理部は、
     前記画像相関情報と、
     前記カメラ撮影画像の撮影タイミングにおける前記オブジェクトの位置制御用の制御パラメータを入力して、前記学習モデルを生成する学習処理を実行する請求項1に記載の学習処理装置。
    The learning processing unit
    With the image correlation information
    The learning processing apparatus according to claim 1, wherein a learning process for generating the learning model is executed by inputting a control parameter for controlling the position of the object at the shooting timing of the image captured by the camera.
  8.  前記カメラ撮影画像は、ロボットにより取得された部品オブジェクトの装着先オブジェクトに対する装着処理が成功した際の直前の画像であり、
     前記学習処理部は、
     ロボットにより取得された部品オブジェクトの装着先オブジェクトに対する装着処理が成功した際の直前の画像を用いて生成された前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する請求項1に記載の学習処理装置。
    The image captured by the camera is an image immediately before the successful mounting process of the component object acquired by the robot on the mounting destination object.
    The learning processing unit
    For inputting the image correlation information generated using the image immediately before the successful mounting process of the component object acquired by the robot to the mounting destination object, and controlling the position of the object captured in the camera captured image. The learning processing device according to claim 1, which generates a learning model that outputs control parameters.
  9.  前記カメラ撮影画像は、ロボットにより取得された部品オブジェクトの装着先オブジェクトに対する装着処理が成功した際の直前の画像と、失敗した際の直前の画像の双方を含み、
     前記学習処理部は、
     ロボットにより取得された部品オブジェクトの装着先オブジェクトに対する装着処理が成功した際の直前の画像を用いて生成された前記画像相関情報と、失敗した際の直前の画像を用いて生成された前記画像相関情報と、装着処理の成否情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する請求項1に記載の学習処理装置。
    The camera-captured image includes both an image immediately before the successful mounting process of the component object to the mounting destination object acquired by the robot and an image immediately before the failure.
    The learning processing unit
    The image correlation information generated by using the image immediately before the successful mounting process of the component object acquired by the robot and the image correlation generated by using the image immediately before the failure. The learning processing device according to claim 1, wherein the learning processing device generates a learning model that inputs information and success / failure information of the mounting process and outputs a control parameter for controlling the position of an object captured by the camera-captured image.
  10.  前記学習処理部は、
     ディープニューラルネットワーク(DNN)を利用した学習処理を実行する請求項1に記載の学習処理装置。
    The learning processing unit
    The learning processing apparatus according to claim 1, which executes a learning process using a deep neural network (DNN).
  11.  ロボットの制御を行なうロボット制御部と、
     前記ロボットに取得されたオブジェクトのカメラ撮影画像と、前記オブジェクトを理想的な位置に配置した模範画像との画像相関情報を生成する画像相関情報算出部と、
     前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータ目標値を出力する学習モデルを有し、
     前記ロボット制御部は、前記学習モデルの出力である制御パラメータ目標値を利用して前記ロボットを制御するロボット制御装置。
    A robot control unit that controls the robot and
    An image correlation information calculation unit that generates image correlation information between a camera-photographed image of an object acquired by the robot and a model image in which the object is arranged at an ideal position.
    It has a learning model that inputs the image correlation information and outputs a control parameter target value for controlling the position of the object captured in the image captured by the camera.
    The robot control unit is a robot control device that controls the robot by using a control parameter target value that is an output of the learning model.
  12.  前記画像相関情報は、位相限定相関情報である請求項11に記載のロボット制御装置。 The robot control device according to claim 11, wherein the image correlation information is phase-limited correlation information.
  13.  前記画像相関情報算出部の生成する前記画像相関情報は、
     前記カメラ撮影画像と、前記模範画像に含まれるオブジェクトの位置ずれに応じた座標位置にピークを持つ情報である請求項11に記載のロボット制御装置。
    The image correlation information generated by the image correlation information calculation unit is
    The robot control device according to claim 11, which is information having a peak at a coordinate position corresponding to a positional deviation between the camera-captured image and an object included in the model image.
  14.  前記カメラ撮影画像は、
     前記ロボットが取得した部品オブジェクトと、該部品オブジェクトの装着先オブジェクトの2つのオブジェクトを含む画像であり、
     前記模範画像は、前記部品オブジェクトを前記装着先オブジェクトに確実に装着可能となる2つのオブジェクトの位置関係を有する画像である請求項11に記載のロボット制御装置。
    The image taken by the camera is
    It is an image including two objects, a part object acquired by the robot and an object to which the part object is mounted.
    The robot control device according to claim 11, wherein the model image is an image having a positional relationship between two objects that can reliably mount the component object on the mounting destination object.
  15.  前記画像相関情報算出部の生成する前記画像相関情報は、
     前記カメラ撮影画像と、前記模範画像に含まれる前記部品オブジェクトと、前記装着先オブジェクト各々に対応するオブジェクトの位置ずれに応じた座標位置に個別のピークを持つ情報である請求項14に記載のロボット制御装置。
    The image correlation information generated by the image correlation information calculation unit is
    The robot according to claim 14, which is information having individual peaks at coordinate positions corresponding to the positional deviations of the camera-captured image, the component object included in the model image, and the object corresponding to each of the mounting destination objects. Control device.
  16.  学習処理装置において実行する学習処理方法であり、
     画像相関情報算出部が、カメラ撮影画像と、模範画像の画像相関情報を生成する画像相関情報算出ステップと、
     学習処理部が、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する学習処理を実行するステップを有する学習処理方法。
    It is a learning processing method executed in the learning processing device.
    The image correlation information calculation unit generates the image correlation information of the camera-captured image and the model image, and the image correlation information calculation step.
    A learning processing method comprising a step in which a learning processing unit executes a learning process of inputting the image correlation information and generating a learning model that outputs a control parameter for controlling the position of an object captured by the camera captured image.
  17.  ロボット制御装置において実行するロボット制御方法であり、
     ロボット制御部が、ロボットの制御を行なうステップと、
     画像相関情報算出部が、前記ロボットに取得されたオブジェクトのカメラ撮影画像と、前記オブジェクトを理想的な位置に配置した模範画像との画像相関情報を生成する画像相関情報算出ステップと、
     学習モデルに対して、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータ目標値を出力するステップと、
     前記ロボット制御部が、前記学習モデルの出力である制御パラメータ目標値を利用して前記ロボットを再制御するロボット制御方法。
    It is a robot control method executed in a robot control device.
    The steps in which the robot control unit controls the robot,
    An image correlation information calculation step in which the image correlation information calculation unit generates image correlation information between the camera-photographed image of the object acquired by the robot and the model image in which the object is arranged at an ideal position.
    A step of inputting the image correlation information to the learning model and outputting a control parameter target value for controlling the position of the object captured in the image captured by the camera.
    A robot control method in which the robot control unit recontrols the robot by using a control parameter target value which is an output of the learning model.
  18.  学習処理装置において学習処理を実行させるプログラムであり、
     画像相関情報算出部に、カメラ撮影画像と、模範画像の画像相関情報を生成させる画像相関情報算出ステップと、
     学習処理部に、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータを出力する学習モデルを生成する学習処理を実行させるステップを実行させるプログラム。
    It is a program that executes learning processing in the learning processing device.
    An image correlation information calculation step that causes the image correlation information calculation unit to generate image correlation information of a camera-photographed image and a model image, and
    A program that causes a learning process unit to execute a step of inputting the image correlation information and executing a learning process of generating a learning model that outputs control parameters for controlling the position of an object captured by the camera image.
  19.  ロボット制御装置においてロボット制御処理を実行させるプログラムであり、
     ロボット制御部に、ロボットの制御を行なわせるステップと、
     画像相関情報算出部に、前記ロボットに取得されたオブジェクトのカメラ撮影画像と、前記オブジェクトを理想的な位置に配置した模範画像との画像相関情報を生成させる画像相関情報算出ステップと、
     学習モデルに対して、前記画像相関情報を入力し、前記カメラ撮影画像に撮影されたオブジェクトの位置制御用の制御パラメータ目標値を出力させるステップと、
     前記ロボット制御部に、前記学習モデルの出力である制御パラメータ目標値を利用して前記ロボットを再制御させるプログラム。
    A program that executes robot control processing in a robot control device.
    Steps to let the robot control unit control the robot,
    An image correlation information calculation step for causing the image correlation information calculation unit to generate image correlation information between the camera-photographed image of the object acquired by the robot and the model image in which the object is arranged at an ideal position.
    A step of inputting the image correlation information to the learning model and outputting a control parameter target value for controlling the position of the captured object in the camera-captured image.
    A program that causes the robot control unit to recontrol the robot by using a control parameter target value that is an output of the learning model.
PCT/JP2021/002976 2020-03-02 2021-01-28 Learning processing device, device and method for robot control, and program WO2021176902A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020034754 2020-03-02
JP2020-034754 2020-03-02

Publications (1)

Publication Number Publication Date
WO2021176902A1 true WO2021176902A1 (en) 2021-09-10

Family

ID=77614230

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/002976 WO2021176902A1 (en) 2020-03-02 2021-01-28 Learning processing device, device and method for robot control, and program

Country Status (1)

Country Link
WO (1) WO2021176902A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017090983A (en) * 2015-11-03 2017-05-25 株式会社デンソーアイティーラボラトリ Image processing method and image processing device
WO2018146769A1 (en) * 2017-02-09 2018-08-16 三菱電機株式会社 Position control device and position control method
JP2019057250A (en) * 2017-09-22 2019-04-11 Ntn株式会社 Work-piece information processing system and work-piece recognition method
JP2019091138A (en) * 2017-11-13 2019-06-13 株式会社日立製作所 Image retrieving apparatus, image retrieving method, and setting screen used therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017090983A (en) * 2015-11-03 2017-05-25 株式会社デンソーアイティーラボラトリ Image processing method and image processing device
WO2018146769A1 (en) * 2017-02-09 2018-08-16 三菱電機株式会社 Position control device and position control method
JP2019057250A (en) * 2017-09-22 2019-04-11 Ntn株式会社 Work-piece information processing system and work-piece recognition method
JP2019091138A (en) * 2017-11-13 2019-06-13 株式会社日立製作所 Image retrieving apparatus, image retrieving method, and setting screen used therefor

Similar Documents

Publication Publication Date Title
Tang et al. A framework for manipulating deformable linear objects by coherent point drift
US10857673B2 (en) Device, method, program and recording medium, for simulation of article arraying operation performed by robot
EP3171236B1 (en) Simulator, simulation method, and simulation program
EP3357649A2 (en) Control device, robot, and robot system
EP0291965B1 (en) Method and system for controlling robot for constructing products
US20180222048A1 (en) Control device, robot, and robot system
CN111565895B (en) Robot system and robot control method
EP3733355A1 (en) Robot motion optimization system and method
EP3357650A2 (en) Control device, robot, and robot system
JP2017094407A (en) Simulation device, simulation method, and simulation program
WO2020095735A1 (en) Robot control device, simulation method, and simulation program
Fu et al. Active learning-based grasp for accurate industrial manipulation
EP3828654A1 (en) Control system, controller and control method
CN113412178A (en) Robot control device, robot system, and robot control method
US20230086122A1 (en) Human-Robot Collaborative Flexible Manufacturing System and Method
El Zaatari et al. iTP-LfD: Improved task parametrised learning from demonstration for adaptive path generation of cobot
WO2021176902A1 (en) Learning processing device, device and method for robot control, and program
Jha et al. Imitation and supervised learning of compliance for robotic assembly
WO2020142498A1 (en) Robot having visual memory
WO2020142499A1 (en) Robot object learning system and method
Luqman et al. Chess brain and autonomous chess playing robotic system
Bobka et al. Development of an automated assembly process supported with an artificial neural network
CN112743548A (en) Method, system and terminal for unifying hand-eye calibration of two mechanical arms
WO2020022040A1 (en) Control system, control method, and program
JPH08118272A (en) Calibration of robot

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21765301

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21765301

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP