JP2020015102A - Control system, control method, and program - Google Patents

Control system, control method, and program Download PDF

Info

Publication number
JP2020015102A
JP2020015102A JP2018137705A JP2018137705A JP2020015102A JP 2020015102 A JP2020015102 A JP 2020015102A JP 2018137705 A JP2018137705 A JP 2018137705A JP 2018137705 A JP2018137705 A JP 2018137705A JP 2020015102 A JP2020015102 A JP 2020015102A
Authority
JP
Japan
Prior art keywords
control
robot
state
moving image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018137705A
Other languages
Japanese (ja)
Other versions
JP6939729B2 (en
Inventor
加藤 豊
Yutaka Kato
豊 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018137705A priority Critical patent/JP6939729B2/en
Priority to PCT/JP2019/026958 priority patent/WO2020022040A1/en
Publication of JP2020015102A publication Critical patent/JP2020015102A/en
Application granted granted Critical
Publication of JP6939729B2 publication Critical patent/JP6939729B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R43/00Apparatus or processes specially adapted for manufacturing, assembling, maintaining, or repairing of line connectors or current collectors or for joining electric conductors
    • H01R43/26Apparatus or processes specially adapted for manufacturing, assembling, maintaining, or repairing of line connectors or current collectors or for joining electric conductors for engaging or disengaging the two parts of a coupling device

Abstract

To provide a control system which can change states of a plurality of objects in cooperation with each other.SOLUTION: A control device performs first processing which acquires an actual image imaged by an imaging device, second processing which selects a target frame from a CG moving image, and third processing which controls each of first to N-th robots on the basis of the actual image and the target frame. In the third processing, the control device calculates a control amount of a j-th robot so as to make the state of a j-th object on the actual image close to the state of the j-th object on the target frame on the basis of change information corresponding to the j-th object, and controls the j-th robot according to the calculated control amount.SELECTED DRAWING: Figure 1

Description

本技術は、ロボットを制御する制御システム、制御方法およびプログラムに関する。   The present technology relates to a control system, a control method, and a program for controlling a robot.

「橋本浩一、「村田敦、他3名、「視覚サーボによる高精度位置決め手法の開発」、SEIテクニカルレビュー、2009年7月、第175号、p. 98-102」(非特許文献1)には、視覚サーボを利用し、ロボットアームを目標位置に導く技術が開示されている。非特許文献1に開示されたシステムは、ロボットアームに取り付けられたカメラによって、コネクタを撮像し、カメラの画像に基づいて、ロボットハンドに支持された端子をコネクタに挿入する。   "Koichi Hashimoto," Atsushi Murata, and three others, "Development of high-precision positioning method using visual servoing", SEI Technical Review, July 2009, No. 175, p. 98-102 "(Non-Patent Document 1) Discloses a technique for using a visual servo to guide a robot arm to a target position. In the system disclosed in Non-Patent Document 1, an image of a connector is taken by a camera attached to a robot arm, and a terminal supported by a robot hand is inserted into the connector based on the image of the camera.

村田敦、他3名、「視覚サーボによる高精度位置決め手法の開発」、SEIテクニカルレビュー、2009年7月、第175号、p. 98-102Atsushi Murata and 3 others, "Development of high-precision positioning method using visual servo", SEI Technical Review, July 2009, No. 175, p. 98-102 足立、「モデル予測制御の基礎」、日本ロボット学会誌、2014年7月、第32巻、第6号、p. 9-12Adachi, "Basics of Model Predictive Control", Journal of the Robotics Society of Japan, July 2014, Volume 32, Issue 6, p. 9-12

非特許文献1に記載の技術は、ロボットハンドに支持された端子とカメラとの相対位置が一定であることを前提としている。そのため、ロボットハンドに支持された端子とカメラとの相対位置関係にずれが生じると、端子の状態とコネクタの状態との連係がくずれ、端子をコネクタに挿入できなくなる可能性がある。   The technology described in Non-Patent Document 1 is based on the premise that the relative position between the terminal supported by the robot hand and the camera is constant. Therefore, if the relative positional relationship between the terminal supported by the robot hand and the camera is deviated, the connection between the state of the terminal and the state of the connector may be lost, and the terminal may not be inserted into the connector.

本発明は、上記の問題を鑑みてなされたものであり、その目的は、複数の対象物の状態が連係して変化可能な制御システム、制御方法およびプログラムを提供することである。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a control system, a control method, and a program in which the states of a plurality of objects can be changed in a coordinated manner.

本開示の一例によれば、制御システムは、第1〜第Nのロボットと、第1〜第Nの対象物を撮像するための撮像装置と、第1〜第Nのロボットを制御するための制御装置とを備える。Nは2以上の整数である。第iのロボットは、第iの対象物の状態を変化させる。iは1〜N−1の整数である。第Nのロボットは、第Nの対象物および撮像装置の一方の状態を変化させる。第Nの対象物および撮像装置の他方は、定位置に設置される。制御装置は、第1〜第Nの対象物の各々について変化情報を取得する。第jの対象物に対応する変化情報は、第jのロボットの制御量と、撮像装置の画像上における第jの対象物の状態の変化量との関係を示する。jは1〜Nの整数である。制御装置は、撮像装置によって撮像された実画像を取得する第1処理と、第1〜第Nの対象物のモデルを示すCG動画から目標フレームを選択する第2処理と、実画像と目標フレームとに基づいて第1〜第Nのロボットの各々を制御する第3処理とを行なう。制御装置は、第3処理において、第jの対象物に対応する変化情報に基づいて、実画像上の第jの対象物の状態を目標フレーム上の第jの対象物のモデルの状態に近づけるための第jのロボットの制御量を算出し、算出した制御量に従って第jのロボットを制御する。   According to an example of the present disclosure, the control system includes a first to an N-th robot, an imaging device for imaging the first to the N-th object, and a control device for controlling the first to the N-th robot. A control device. N is an integer of 2 or more. The i-th robot changes the state of the i-th object. i is an integer of 1 to N-1. The Nth robot changes one state of the Nth object and the imaging device. The other of the N-th object and the imaging device is installed at a fixed position. The control device acquires change information for each of the first to Nth objects. The change information corresponding to the j-th object indicates the relationship between the control amount of the j-th robot and the change amount of the state of the j-th object on the image of the imaging device. j is an integer of 1 to N. The control device is configured to perform a first process of acquiring a real image captured by the imaging device, a second process of selecting a target frame from CG moving images indicating the first to Nth object models, a real image and a target frame. And a third process for controlling each of the first to Nth robots based on the above. In the third process, the control device brings the state of the j-th object on the real image closer to the state of the model of the j-th object on the target frame based on the change information corresponding to the j-th object. The control amount of the j-th robot is calculated and the j-th robot is controlled in accordance with the calculated control amount.

この開示によれば、実画像と目標フレームと変化情報とに基づいて、実画像上の対象物の状態を目標フレーム上の対象物のモデルの状態まで変化させることができる。これにより、第1〜第Nの対象物の状態は、CG動画に従って連係して変化する。   According to this disclosure, the state of the target on the real image can be changed to the state of the model of the target on the target frame based on the real image, the target frame, and the change information. As a result, the states of the first to Nth objects change in a coordinated manner according to the CG moving image.

上述の開示において、CG動画は、第1〜第Nの対象物の各々の設計データに基づいて作成される。CG動画は、第1の対象物と第2〜第Nの対象物のうちの少なくとも1つの対象物とが離れた状態を示すフレームから第1の対象物と少なくとも1つの対象物とが接合した状態を示すフレームまでを含む。制御装置は、第3処理において、設計データに対する第1の対象物および少なくとも1つの対象物の製造誤差に応じた調整量だけ第1のロボットの制御量を調整し、調整後の制御量に従って第1のロボットを制御する。   In the above disclosure, the CG moving image is created based on the design data of each of the first to Nth objects. In the CG moving image, the first object and the at least one object are joined from a frame indicating a state in which the first object and at least one of the second to Nth objects are separated from each other. This includes up to the frame indicating the status. In the third process, the control device adjusts the control amount of the first robot by an adjustment amount according to a manufacturing error of the first object and at least one object with respect to the design data, and adjusts the control amount of the first robot in accordance with the adjusted control amount. Control one robot.

この開示によれば、第1の対象物および少なくとも1つの対象物に製造誤差が生じていたとしても、第1の対象物と少なくとも1つの対象物とを接合させることができる。   According to this disclosure, even if a manufacturing error occurs in the first object and at least one object, the first object and at least one object can be joined.

上述の開示において、制御システムは、第1の対象物および少なくとも1つの対象物の一方が他方から受ける力を検知する力覚センサを含む。制御装置は、力覚センサによって検知される力が極小となる第1の対象物の状態を探索し、探索された第1の対象物の状態に基づいて調整量を決定する。   In the above disclosure, the control system includes a force sensor that detects a force that one of the first object and the at least one object receives from the other. The control device searches for a state of the first object where the force detected by the force sensor is minimal, and determines an adjustment amount based on the searched state of the first object.

第1の対象物および少なくとも1つの対象物に製造誤差が生じた場合、当該製造誤差に応じて、第1の対象物と第2の対象物とを接合させる際に、第1の対象物と少なくとも1つの対象物との間に意図しない抵抗力(摩擦力を含む)が発生し、力覚センサの検出値が大きくなる。この開示によれば、力覚センサの検出値が極小となる第1の対象物の状態に基づいて調整量が決定される。そのため、製造誤差に起因する、第1の対象物と少なくとも1つの対象物との相対的な位置ずれ量を低減した状態で、第1の対象物の状態を変化させることができる。   When a manufacturing error occurs in the first object and at least one object, when the first object and the second object are joined according to the manufacturing error, the first object and the second object are connected to each other. Unintended resistance force (including frictional force) is generated between at least one object and the detection value of the force sensor increases. According to this disclosure, the adjustment amount is determined based on the state of the first target at which the detection value of the force sensor is minimal. Therefore, the state of the first object can be changed in a state in which the relative displacement between the first object and at least one object caused by the manufacturing error is reduced.

上述の開示において、制御装置は、入力装置と接続され、入力装置から調整量を取得する。これにより、制御装置は、容易に調整量を取得できる。   In the above disclosure, the control device is connected to the input device and acquires the adjustment amount from the input device. Thereby, the control device can easily acquire the adjustment amount.

上述の開示において、CG動画は、第1の対象物と第2〜第Nの対象物のうちの少なくとも1つの対象物とが離れた状態を示すフレームから第1の対象物と少なくとも1つの対象物とが接合した状態を示すフレームまでを含む。制御システムは、第1の対象物および少なくとも1つの対象物の一方が他方から受ける力を検知する力覚センサを含む。制御装置は、第1処理から第3処理を繰り返す第1モードを行なう。制御装置は、第1モードにおける第3処理において、第1のロボットの制御量を調整して、力覚センサによって検知される力が極小となる調整量を探索する。制御装置は、探索された調整量だけ第1のロボットの制御量を調整したときに撮像装置によって撮像された動画を基準動画として取得する。制御装置は、第1処理と、CG動画の代わりに基準動画から目標フレームを選択する第4処理と、第3処理とを繰り返す第2モードを行なう。   In the above disclosure, the CG moving image includes a first object and at least one object from a frame indicating a state where the first object and at least one of the second to Nth objects are separated from each other. Includes the frame up to the state where the object is joined. The control system includes a force sensor that detects a force that one of the first object and the at least one object receives from the other. The control device performs a first mode in which the first to third processes are repeated. In the third processing in the first mode, the control device adjusts the control amount of the first robot and searches for an adjustment amount at which the force detected by the force sensor becomes a minimum. The control device acquires, as the reference moving image, a moving image captured by the imaging device when the control amount of the first robot is adjusted by the searched adjustment amount. The control device performs a second mode in which the first process, the fourth process of selecting a target frame from the reference moving image instead of the CG moving image, and the third process are repeated.

この開示によれば、基準動画は、力覚センサによって検出された力が極小となるときに撮像された画像である。そのため、制御装置が第2モードに従った処理を行なうことにより、第1の対象物および少なくとも1つの対象物に製造誤差が生じていたとしても、第1の対象物と少なくとも1つの対象物とを接合させることができる。   According to this disclosure, the reference moving image is an image captured when the force detected by the force sensor becomes a minimum. Therefore, even if a manufacturing error occurs in the first object and at least one object by performing the processing according to the second mode by the control device, the first object and the at least one object can be compared with each other. Can be joined.

本開示の一例によれば、制御方法は、第1〜第Nの対象物を撮像するための撮像装置を用いて、第1〜第Nのロボットを制御する。Nは2以上の整数である。第iのロボットは、第iの対象物の状態を変化させる。iは1〜N−1の整数である。第Nのロボットは、第Nの対象物および撮像装置の一方の状態を変化させる。第Nの対象物および撮像装置の他方は、定位置に設置される。制御方法は、第1〜第Nのロボットの各々について変化情報を取得する第1ステップを備える。第jのロボットに対応する変化情報は、第jのロボットの制御量と、撮像装置の画像上における第jの対象物の状態の変化量との関係を示す。jは1〜Nの整数である。制御方法は、撮像装置によって撮像された実画像を取得する第2ステップと、第1〜第Nの対象物のモデルを示すCG動画から目標フレームを選択する第3ステップと、実画像と目標フレームとに基づいて第1〜第Nのロボットの各々を制御する第4ステップとをさらに備える。第4ステップは、第jのロボットに対応する変化情報に基づいて、実画像上の第jの対象物の状態を目標フレーム上の第jの対象物の状態に近づけるための制御量を算出し、算出した制御量に従って第jのロボットを制御するステップを含む。   According to an example of the present disclosure, the control method controls the first to Nth robots using an imaging device for imaging the first to Nth objects. N is an integer of 2 or more. The i-th robot changes the state of the i-th object. i is an integer of 1 to N-1. The Nth robot changes one state of the Nth object and the imaging device. The other of the N-th object and the imaging device is installed at a fixed position. The control method includes a first step of acquiring change information for each of the first to Nth robots. The change information corresponding to the j-th robot indicates a relationship between the control amount of the j-th robot and the change amount of the state of the j-th object on the image of the imaging device. j is an integer of 1 to N. The control method includes a second step of acquiring a real image captured by the imaging device, a third step of selecting a target frame from CG moving images indicating the first to Nth object models, a real image and a target frame. A fourth step of controlling each of the first to Nth robots based on the above. The fourth step calculates a control amount for bringing the state of the j-th object on the real image closer to the state of the j-th object on the target frame based on the change information corresponding to the j-th robot. , And controlling the j-th robot according to the calculated control amount.

本開示の一例によれば、プログラムは、上記の制御方法をコンピュータに実行させるためのプログラムである。これらの開示によっても、複数の対象物の状態が連係して変化する。   According to an example of the present disclosure, a program is a program for causing a computer to execute the above control method. According to these disclosures, the states of a plurality of objects also change in a coordinated manner.

本発明によれば、複数の対象物の状態が連係して変化する。   According to the present invention, the states of a plurality of objects change in a coordinated manner.

実施の形態に係る制御システムの概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the control system which concerns on embodiment. 撮像装置21によって撮像された実画像と第1CG動画との一例を示す図である。FIG. 4 is a diagram illustrating an example of a real image captured by an imaging device and a first CG moving image. 撮像装置22によって撮像された実画像と第2CG動画との一例を示す図である。FIG. 3 is a diagram illustrating an example of a real image and a second CG moving image captured by an imaging device 22. 実施の形態に係る制御システムを構成する制御装置のハードウェア構成を示す模式図である。FIG. 2 is a schematic diagram illustrating a hardware configuration of a control device included in the control system according to the embodiment. 実施の形態に係る制御装置の機能構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of a control device according to the embodiment. テンプレートの作成方法の一例を示す図である。FIG. 6 is a diagram illustrating an example of a method for creating a template. 実施の形態における第1制御部および第2制御部の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of a first control unit and a second control unit according to the embodiment. 第1制御部における第1変化情報セットの生成方法を説明する図である。FIG. 5 is a diagram illustrating a method of generating a first change information set in a first control unit. 第1制御部の算出部による制御量の算出方法を説明する図である。FIG. 4 is a diagram illustrating a method of calculating a control amount by a calculation unit of a first control unit. 第1CG動画および第2CG動画に沿って対象物の状態を変化させるように対象ロボットを制御する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process which controls a target robot so that the state of a target object may be changed along a 1st CG moving image and a 2nd CG moving image. 図10に示すステップS4のサブルーチンの処理の流れを示すフローチャートである。11 is a flowchart showing the flow of processing of a subroutine of step S4 shown in FIG. 最近接フレームと目標フレームとの関係を示す図である。FIG. 3 is a diagram illustrating a relationship between a closest frame and a target frame. 図10に示すステップS6のサブルーチンの処理の流れを示すフローチャートである。11 is a flowchart showing the flow of the processing of a subroutine of step S6 shown in FIG. メスコネクタの設計データと、当該設計データに従って製造されたメスコネクタとの寸法を示す図である。It is a figure showing the design data of a female connector, and the dimensions of the female connector manufactured according to the design data. 変形例1に係る制御システムの概要を示す模式図である。FIG. 9 is a schematic diagram illustrating an outline of a control system according to a first modification. 変形例1に係る制御装置の機能構成を示すブロック図である。FIG. 9 is a block diagram illustrating a functional configuration of a control device according to a first modification. 変形例1における第1制御部および第2制御部の機能構成を示すブロック図である。FIG. 9 is a block diagram illustrating a functional configuration of a first control unit and a second control unit according to a first modification. 変形例1におけるオフセット量の決定処理の流れの一例を示すフローチャートである。15 is a flowchart illustrating an example of a flow of an offset amount determination process in Modification Example 1. 変形例3に係る制御装置の機能構成を示すブロック図である。FIG. 13 is a block diagram illustrating a functional configuration of a control device according to a third modification. 変形例3における第1制御部および第2制御部の機能構成を示すブロック図である。FIG. 14 is a block diagram illustrating a functional configuration of a first control unit and a second control unit according to a third modification. 変形例4に係る制御システムの対象物を示す模式図である。FIG. 14 is a schematic diagram illustrating an object of a control system according to Modification 4. 変形例5に係る制御システムの対象物を示す模式図である。15 is a schematic diagram illustrating an object of a control system according to Modification Example 5. FIG. 変形例6に係る制御システムの概要を示す模式図である。15 is a schematic diagram illustrating an outline of a control system according to Modification Example 6. FIG. 変形例6に係る制御装置の機能構成を示すブロック図である。FIG. 13 is a block diagram illustrating a functional configuration of a control device according to a modification 6. 変形例6の第1制御部および第2制御部の処理の流れを示すフローチャートである。15 is a flowchart illustrating a flow of processing of a first control unit and a second control unit of a modification 6. 変形例6に係る制御システムの別の構成例を示す模式図である。FIG. 15 is a schematic diagram illustrating another configuration example of the control system according to Modification 6.

以下、図面を参照しつつ、本発明に従う実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are the same. Therefore, detailed description thereof will not be repeated.

<A.適用例>
まず、図1を参照して、本発明が適用される場面の一例について説明する。図1は、実施の形態に係る制御システムの概要を示す模式図である。
<A. Application example>
First, an example of a scene to which the present invention is applied will be described with reference to FIG. FIG. 1 is a schematic diagram illustrating an outline of a control system according to an embodiment.

本実施の形態に係る制御システム1は、たとえば、工業製品の生産ラインなどにおいて、オスコネクタ2aをメスコネクタ2bに挿入することにより、オスコネクタ2aとメスコネクタ2bとを接続させる。   The control system 1 according to the present embodiment connects the male connector 2a to the female connector 2b by inserting the male connector 2a into the female connector 2b in, for example, a production line of an industrial product.

図1に示すように、制御システム1は、撮像装置21,22と、ロボット30a,30bと、ロボットコントローラ40a,40bと、制御装置50とを備える。   As shown in FIG. 1, the control system 1 includes imaging devices 21 and 22, robots 30a and 30b, robot controllers 40a and 40b, and a control device 50.

撮像装置21,22は、撮像視野に存在する被写体を撮像して画像データ(以下、単に「画像」という)を生成する。撮像装置21,22は、ロボット30a,30bと異なる固定位置に設置される。撮像装置21,22は、互いに異なる固定位置から、被写体としてのオスコネクタ2aおよびメスコネクタ2bを撮像する。撮像装置21,22は、予め定められた撮像周期に従って撮像し、撮像によって得られた実画像を制御装置50に出力する。   The imaging devices 21 and 22 generate an image data (hereinafter, simply referred to as an “image”) by capturing an image of a subject existing in an imaging visual field. The imaging devices 21 and 22 are installed at fixed positions different from the robots 30a and 30b. The imaging devices 21 and 22 capture images of the male connector 2a and the female connector 2b as subjects from different fixed positions. The imaging devices 21 and 22 perform imaging according to a predetermined imaging cycle, and output a real image obtained by the imaging to the control device 50.

ロボット30aは、オスコネクタ2aの状態(ここでは位置および姿勢)を変化させるための機構であり、たとえば垂直多関節ロボットである。ロボット30aは、先端にオスコネクタ2aを支持する(ここでは把持する)ハンド31aを有し、ハンド31aの位置および姿勢を6自由度で変化させる。言い換えると、ロボット30aは、ハンド31aに把持されたオスコネクタ2aの位置および姿勢を6自由度で変化させる。当該6自由度は、X方向、Y方向およびZ方向の並進自由度と、ピッチ方向、ヨー方向およびロール方向の回転自由度とを含む。ただし、ハンド31aの自由度の個数は6個に限定されず、3〜5個または7個以上であってもよい。   The robot 30a is a mechanism for changing the state (here, position and posture) of the male connector 2a, and is, for example, a vertical articulated robot. The robot 30a has a hand 31a that supports (holds here) the male connector 2a at its tip, and changes the position and posture of the hand 31a with six degrees of freedom. In other words, the robot 30a changes the position and the posture of the male connector 2a held by the hand 31a with six degrees of freedom. The six degrees of freedom include translational degrees of freedom in the X, Y, and Z directions, and rotational degrees of freedom in the pitch, yaw, and roll directions. However, the number of degrees of freedom of the hand 31a is not limited to six, and may be three to five or seven or more.

ロボット30aは、複数のサーボモータを有しており、当該サーボモータが駆動されることにより、オスコネクタ2aの位置および姿勢を変化させる。当該複数のサーボモータの各々に対応してエンコーダが設けられており、サーボモータの位置が計測される。   The robot 30a has a plurality of servomotors, and drives and changes the position and posture of the male connector 2a. An encoder is provided for each of the plurality of servomotors, and the position of the servomotor is measured.

ロボット30bは、メスコネクタ2bの状態(ここでは位置および姿勢)を変化させるための機構であり、たとえばXYθステージである。ロボット30bは、メスコネクタ2bを支持する(ここでは載せる)ステージ31bを有し、ステージ31bの位置および姿勢を3自由度で変化させる。すなわち、ロボット30bは、ステージ31bに載置されたメスコネクタ2bの位置および姿勢を3自由度で変化させる。当該3自由度は、X方向およびY方向の並進自由度と、XY平面に直交する軸を中心とする回転方向(θ方向)の回転自由度とを含む。ただし、ロボット30bの自由度の個数は3個に限定されず、4個以上であってもよい。   The robot 30b is a mechanism for changing the state (here, position and orientation) of the female connector 2b, and is, for example, an XYθ stage. The robot 30b has a stage 31b supporting (put on) the female connector 2b, and changes the position and the posture of the stage 31b with three degrees of freedom. That is, the robot 30b changes the position and posture of the female connector 2b mounted on the stage 31b with three degrees of freedom. The three degrees of freedom include a translational degree of freedom in the X direction and the Y direction and a rotational degree of freedom in a rotational direction (θ direction) about an axis orthogonal to the XY plane. However, the number of degrees of freedom of the robot 30b is not limited to three, and may be four or more.

ロボット30bは、複数のサーボモータを有しており、当該サーボモータが駆動されることにより、メスコネクタ2bの位置および姿勢を変化させる。当該複数のサーボモータの各々に対応してエンコーダが設けられており、サーボモータの位置が計測される。   The robot 30b has a plurality of servomotors, and changes the position and posture of the female connector 2b by driving the servomotors. An encoder is provided for each of the plurality of servomotors, and the position of the servomotor is measured.

ロボットコントローラ40aは、制御装置50から受けた制御指令に従って、ロボット30aの動作制御を行なう。ロボットコントローラ40aは、X方向、Y方向およびZ方向の並進自由度ならびにピッチ方向、ヨー方向およびロール方向の回転自由度の各々の制御指令を制御装置50から受ける。これらX方向、Y方向、Z方向、ピッチ方向、ヨー方向およびロール方向は、ロボット30aの座標系で示される。ロボットコントローラ40aは、ハンド31aのX方向、Y方向およびZ方向の並進移動量がX方向、Y方向およびZ方向の並進自由度の制御指令にそれぞれ近づくように、ロボット30aに対してフィードバック制御を行なう。ロボットコントローラ40aは、ハンド31aのピッチ方向、ヨー方向およびロール方向の回転移動量がピッチ方向、ヨー方向およびロール方向の回転自由度の制御指令にそれぞれ近づくように、ロボット30aに対してフィードバック制御を行なう。   The robot controller 40a controls the operation of the robot 30a according to a control command received from the control device 50. The robot controller 40a receives from the control device 50 control commands for translational degrees of freedom in the X, Y, and Z directions and rotational degrees of freedom in the pitch, yaw, and roll directions. These X direction, Y direction, Z direction, pitch direction, yaw direction, and roll direction are indicated by the coordinate system of the robot 30a. The robot controller 40a performs feedback control on the robot 30a so that the translation amounts of the hand 31a in the X, Y, and Z directions approach control commands for the degrees of freedom of translation in the X, Y, and Z directions, respectively. Do. The robot controller 40a performs feedback control on the robot 30a so that the rotational movement amounts of the hand 31a in the pitch direction, the yaw direction, and the roll direction approach the control commands for the rotational degrees of freedom in the pitch, yaw, and roll directions, respectively. Do.

ロボットコントローラ40bは、制御装置50から受けた制御指令に従って、ロボット30bの動作制御を行なう。ロボットコントローラ40bは、X方向およびY方向の並進自由度ならびに回転自由度の各々の制御指令を制御装置50から受ける。これらX方向、Y方向および回転方向は、ロボット30bの座標系で示される。ロボットコントローラ40bは、ステージ31bのX方向およびY方向の並進移動量がX方向およびY方向の並進自由度の制御指令にそれぞれ近づくように、ロボット30bに対してフィードバック制御を行なう。ロボットコントローラ40bは、ステージ31bの回転移動量が回転自由度の制御指令に近づくように、ロボット30bに対してフィードバック制御を行なう。   The robot controller 40b controls the operation of the robot 30b according to a control command received from the control device 50. The robot controller 40b receives from the control device 50 control commands for the degrees of freedom of translation and rotation in the X and Y directions. These X direction, Y direction, and rotation direction are indicated by the coordinate system of the robot 30b. The robot controller 40b performs feedback control on the robot 30b such that the translation amounts of the stage 31b in the X and Y directions approach control commands for the degrees of freedom of translation in the X and Y directions, respectively. The robot controller 40b performs feedback control on the robot 30b such that the rotational movement amount of the stage 31b approaches the control command of the rotational degree of freedom.

制御装置50は、ロボットコントローラ40a,40bを介して、ロボット30a,30bをそれぞれ制御する。   The control device 50 controls the robots 30a and 30b via the robot controllers 40a and 40b, respectively.

制御装置50は、オスコネクタ2aおよびメスコネクタ2bの見本を示す、第1CG動画および第2CG動画を記憶している。第1CG動画および第2CG動画は、オスコネクタ2a、メスコネクタ2b、ロボット30a,30bおよび撮像装置21,22のモデルを仮想空間上でシミュレーションすることにより作成される。第1CG動画および第2CG動画は、仮想空間上で、オスコネクタ2aのモデルとメスコネクタ2bのモデルとが位置および姿勢を変化させながら、互いに接続する様子を示している。オスコネクタ2aおよびメスコネクタ2bのモデルは、オスコネクタ2aおよびメスコネクタ2bの設計データに基づいて作成される。   The control device 50 stores a first CG moving image and a second CG moving image that indicate a sample of the male connector 2a and the female connector 2b. The first CG moving image and the second CG moving image are created by simulating a model of the male connector 2a, the female connector 2b, the robots 30a and 30b, and the imaging devices 21 and 22 in a virtual space. The first CG moving image and the second CG moving image show how the model of the male connector 2a and the model of the female connector 2b are connected to each other in the virtual space while changing the position and orientation. The models of the male connector 2a and the female connector 2b are created based on the design data of the male connector 2a and the female connector 2b.

第1CG動画は、仮想空間上で撮像装置21のモデルの位置を視点として設定することにより作成される。第2CG動画は、仮想空間上で撮像装置22のモデルの位置を視点として設定することにより作成される。   The first CG moving image is created by setting the position of the model of the imaging device 21 in the virtual space as a viewpoint. The second CG moving image is created by setting the position of the model of the imaging device 22 in the virtual space as a viewpoint.

第1CG動画および第2CG動画の各々は、時系列に並んだ複数(以下、M枚(Mは、2以上の整数)とする)のフレームを含む。第1CG動画のk番目(kは1〜Mのいずれかの整数)のフレームと第2CG動画のk番目のフレームとは、仮想空間上のある状態のオスコネクタ2aおよびメスコネクタ2bのモデルを同時に異なる方向から見たときの画像である。   Each of the first CG moving image and the second CG moving image includes a plurality of frames (hereinafter, referred to as M (M is an integer of 2 or more)) arranged in time series. The k-th (k is an integer from 1 to M) frame of the first CG moving image and the k-th frame of the second CG moving image are obtained by simultaneously using the model of the male connector 2a and the female connector 2b in a certain state in the virtual space These are images when viewed from different directions.

制御装置50は、ロボット30aの制御量と、撮像装置21,22の撮像により得られる画像上のオスコネクタ2aの状態の変化量との関係を示す変化情報を取得する。当該変化情報は、オスコネクタ2a、ロボット30aおよび撮像装置21,22のモデルを仮想空間上でシミュレーションすることにより生成される。   The control device 50 acquires change information indicating a relationship between a control amount of the robot 30a and a change amount of a state of the male connector 2a on an image obtained by imaging by the imaging devices 21 and 22. The change information is generated by simulating a model of the male connector 2a, the robot 30a, and the imaging devices 21 and 22 in a virtual space.

同様に、制御装置50は、ロボット30bの制御量と、撮像装置21,22の撮像により得られる画像上のメスコネクタ2bの状態の変化量との関係を示す変化情報を取得する。当該変化情報は、メスコネクタ2b、ロボット30bおよび撮像装置21,22のモデルを仮想空間上でシミュレーションすることにより生成される。   Similarly, the control device 50 acquires change information indicating the relationship between the control amount of the robot 30b and the change amount of the state of the female connector 2b on the images obtained by the imaging devices 21 and 22. The change information is generated by simulating a model of the female connector 2b, the robot 30b, and the imaging devices 21 and 22 in a virtual space.

制御装置50は、以下に示す第1〜第3処理を行なう。制御装置50は、第1〜第3処理を含む一連処理を繰り返し実行する。第1処理は、撮像装置21,22によって撮像された実画像を取得する処理である。   Control device 50 performs the following first to third processing. The control device 50 repeatedly executes a series of processes including the first to third processes. The first process is a process of acquiring actual images captured by the imaging devices 21 and 22.

第2処理は、第1CG動画および第2CG動画の各々から目標フレームを選択する処理である。制御装置50は、第1CG動画からk番目のフレームを目標フレームとして選択する場合、第2基準動画からもk番目のフレームを目標フレームとして選択する。   The second process is a process of selecting a target frame from each of the first CG moving image and the second CG moving image. When selecting the k-th frame from the first CG moving image as the target frame, the control device 50 also selects the k-th frame from the second reference moving image as the target frame.

第3処理は、実画像と目標フレームとに基づいてロボット30a,30bの各々を制御する処理である。制御装置50は、ロボット30aに対応する変化情報に基づいて、実画像上のオスコネクタ2aの状態を目標フレーム上のオスコネクタ2aの状態に近づけるためのロボット30aの制御量を算出し、算出した制御量に従ってロボット30aを制御する。制御装置50は、ロボット30aの制御量を示す制御指令を生成し、生成した制御指令をロボットコントローラ40aに出力する。さらに、制御装置50は、ロボット30bに対応する変化情報に基づいて、実画像上のメスコネクタ2bの状態を目標フレーム上のメスコネクタ2bの状態に近づけるためのロボット30bの制御量を算出し、算出した制御量に従ってロボット30bを制御する。制御装置50は、ロボット30bの制御量を示す制御指令を生成し、生成した制御指令をロボットコントローラ40bに出力する。   The third process is a process of controlling each of the robots 30a and 30b based on the real image and the target frame. The control device 50 calculates and calculates the control amount of the robot 30a for bringing the state of the male connector 2a on the actual image closer to the state of the male connector 2a on the target frame based on the change information corresponding to the robot 30a. The robot 30a is controlled according to the control amount. The control device 50 generates a control command indicating a control amount of the robot 30a, and outputs the generated control command to the robot controller 40a. Further, the control device 50 calculates a control amount of the robot 30b for bringing the state of the female connector 2b on the actual image closer to the state of the female connector 2b on the target frame based on the change information corresponding to the robot 30b, The robot 30b is controlled according to the calculated control amount. The control device 50 generates a control command indicating a control amount of the robot 30b, and outputs the generated control command to the robot controller 40b.

図2は、撮像装置21によって撮像された実画像と第1CG動画との一例を示す図である。図3は、撮像装置22によって撮像された実画像と第2CG動画との一例を示す図である。図2には、撮像装置21によって撮像された実画像90a〜93aと、第1CG動画のフレーム70a〜73aとが示されている。図3には、撮像装置22によって撮像された実画像90b〜93bと、第2CG動画のフレーム70b〜73bとが示されている。   FIG. 2 is a diagram illustrating an example of a real image captured by the imaging device 21 and a first CG moving image. FIG. 3 is a diagram illustrating an example of a real image captured by the image capturing device 22 and a second CG moving image. FIG. 2 shows real images 90 a to 93 a captured by the imaging device 21 and frames 70 a to 73 a of the first CG moving image. FIG. 3 shows real images 90b to 93b captured by the imaging device 22 and frames 70b to 73b of the second CG moving image.

実画像90a,90bは、同時刻に撮像された画像である。実画像91a,91bは、実画像90a,90bより後の同時刻に撮像された画像である。実画像92a,92bは、実画像91a,91bより後の同時刻に撮像された画像である。実画像93a,93bは、実画像92a,92bより後の同時刻に撮像された画像である。   The real images 90a and 90b are images captured at the same time. The real images 91a and 91b are images captured at the same time after the real images 90a and 90b. The real images 92a and 92b are images captured at the same time after the real images 91a and 91b. The real images 93a and 93b are images captured at the same time after the real images 92a and 92b.

フレーム70a,70bの各々は、対応するCG動画における1番目のフレームである。フレーム71a,71bの各々は、対応するCG動画におけるs番目(sは2以上の整数)のフレームである。フレーム72a,72bの各々は、対応するCG動画におけるt番目(tはsより大きい整数)のフレームである。フレーム73a,73bの各々は、対応するCG動画におけるu番目(uはtより大きい整数)のフレームである。   Each of the frames 70a and 70b is the first frame in the corresponding CG moving image. Each of the frames 71a and 71b is an s-th (s is an integer of 2 or more) frame in the corresponding CG moving image. Each of the frames 72a and 72b is a t-th (t is an integer greater than s) frame in the corresponding CG moving image. Each of the frames 73a and 73b is a u-th (u is an integer greater than t) frame in the corresponding CG moving image.

第1CG動画および第2CG動画は、ハンド31aのモデル(以下、「ハンドモデル」という)31a’と、ステージ31bのモデル(以下、「ステージモデル」という)31b’とを含む。さらに、第1CG動画および第2CG動画は、オスコネクタ2aのモデル(以下、「オスコネクタモデル」という)2a’と、メスコネクタ2bのモデル(以下、「メスコネクタモデル」という)2b’とを含む。   The first CG moving image and the second CG moving image include a model of the hand 31a (hereinafter, referred to as “hand model”) 31a ′ and a model of the stage 31b (hereinafter, referred to as “stage model”) 31b ′. Further, the first CG moving image and the second CG moving image include a model of male connector 2a (hereinafter, referred to as “male connector model”) 2a ′ and a model of female connector 2b (hereinafter, referred to as “female connector model”) 2b ′. .

第1CG動画および第2CG動画は、ステージモデル31b’上のメスコネクタモデル2b’が所望の状態に移動する様子を示している。さらに、第1CG動画および第2CG動画は、その後、ハンドモデル31a’によって把持されたオスコネクタモデル2a’がメスコネクタモデル2b’の上方から下向きに移動し、メスコネクタモデル2b’と接続する様子を示している。   The first CG moving image and the second CG moving image show how the female connector model 2b 'on the stage model 31b' moves to a desired state. Further, the first CG moving image and the second CG moving image show that the male connector model 2a 'gripped by the hand model 31a' moves downward from above the female connector model 2b 'and connects to the female connector model 2b'. Is shown.

制御装置50は、ステージ31b上に載置されたメスコネクタ2bと、ハンド31aによって把持されたオスコネクタ2aとを含む実画像90a,90bを撮像装置21,22からそれぞれ取得する。   The control device 50 acquires real images 90a and 90b including the female connector 2b placed on the stage 31b and the male connector 2a held by the hand 31a from the imaging devices 21 and 22, respectively.

制御装置50は、第1CG動画および第2CG動画から、メスコネクタモデル2b’が所望の位置および姿勢に移動したときのフレーム71a,71bを目標フレームとしてそれぞれ選択する。   The control device 50 selects, from the first CG moving image and the second CG moving image, the frames 71a and 71b when the female connector model 2b 'has moved to a desired position and posture, respectively, as target frames.

制御装置50は、メスコネクタ2bに対応する変化情報に基づいて、実画像90a,90b上のメスコネクタ2bの状態をフレーム71a,71b上のメスコネクタモデル2b’の状態へそれぞれ近づけるためのステージ31bの制御量を算出する。そして、制御装置50は、算出した制御量を示す制御指令をロボットコントローラ40bに出力する。ロボットコントローラ40bは、制御指令に従ってロボット30bを制御する。これにより、実画像91a,91bに示されるように、メスコネクタ2bの位置および姿勢は、所望の位置および姿勢(フレーム71a,71bで示されるメスコネクタモデル2b’の位置および姿勢)に変化する。   Based on the change information corresponding to the female connector 2b, the control device 50 brings the state of the female connector 2b on the actual images 90a, 90b closer to the state of the female connector model 2b 'on the frames 71a, 71b, respectively. Is calculated. Then, the control device 50 outputs a control command indicating the calculated control amount to the robot controller 40b. The robot controller 40b controls the robot 30b according to a control command. Thereby, as shown in the real images 91a and 91b, the position and the posture of the female connector 2b change to a desired position and posture (the position and the posture of the female connector model 2b 'shown by the frames 71a and 71b).

さらに、ロボット30bの制御と並行して、制御装置50は、実画像90a,90b上のオスコネクタ2aの状態からフレーム71a,71b上のオスコネクタモデル2a’の状態に近づけるためのハンド31aの制御量を算出する。そして、制御装置50は、算出した制御量を示す制御指令をロボットコントローラ40aに出力する。ロボットコントローラ40aは、制御指令に従ってロボット30aを制御する。これにより、実画像91a,91bに示されるように、オスコネクタ2aの状態は、メスコネクタ2bの上方の位置および姿勢(フレーム71a,71bで示される位置および姿勢)に変化する。   Further, in parallel with the control of the robot 30b, the control device 50 controls the hand 31a to bring the state of the male connector 2a on the real images 90a and 90b closer to the state of the male connector model 2a 'on the frames 71a and 71b. Calculate the amount. Then, the control device 50 outputs a control command indicating the calculated control amount to the robot controller 40a. The robot controller 40a controls the robot 30a according to a control command. Thereby, as shown in the actual images 91a and 91b, the state of the male connector 2a changes to the position and posture above the female connector 2b (the positions and postures indicated by the frames 71a and 71b).

次に、制御装置50は、オスコネクタモデル2a’がメスコネクタモデル2b’の直上の位置まで移動したときのフレーム72a,72bを目標フレームとして選択する。   Next, the control device 50 selects the frames 72a and 72b when the male connector model 2a 'has moved to a position immediately above the female connector model 2b' as a target frame.

制御装置50は、オスコネクタ2aに対応する変化情報に基づいて、実画像91a,91b上のオスコネクタ2aの状態をフレーム72a,72b上のオスコネクタモデル2a’の状態にそれぞれ近づけるためのハンド31aの制御量を算出する。そして、制御装置50は、算出した制御量を示す制御指令をロボットコントローラ40aに出力する。ロボットコントローラ40aは、制御指令に従ってロボット30aを制御する。これにより、実画像92a,92bに示されるように、オスコネクタ2aの位置および姿勢は、メスコネクタ2bの直上の位置および姿勢(フレーム72a,72bで示されるオスコネクタモデル2a’の位置および姿勢)に変化する。   The control device 50 controls the hands 31a for bringing the state of the male connector 2a on the real images 91a and 91b closer to the state of the male connector model 2a 'on the frames 72a and 72b based on the change information corresponding to the male connector 2a. Is calculated. Then, the control device 50 outputs a control command indicating the calculated control amount to the robot controller 40a. The robot controller 40a controls the robot 30a according to a control command. Thereby, as shown in the real images 92a and 92b, the position and the posture of the male connector 2a are the position and the posture immediately above the female connector 2b (the position and the posture of the male connector model 2a 'indicated by the frames 72a and 72b). Changes to

次に、制御装置50は、オスコネクタモデル2a’とメスコネクタモデル2b’との接続が完了したときのフレーム73a,73bを目標フレームとして選択する。   Next, the control device 50 selects the frames 73a and 73b when the connection between the male connector model 2a 'and the female connector model 2b' is completed, as target frames.

制御装置50は、オスコネクタ2aに対応する変化情報に基づいて、実画像92a,92b上のオスコネクタ2aの状態をフレーム73a,73b上のオスコネクタモデル2a’の状態に近づけるためのハンド31aの制御量を算出する。そして、制御装置50は、算出した制御量を示す制御指令をロボットコントローラ40aに出力する。ロボットコントローラ40aは、制御指令に従ってロボット30aを制御する。これにより、実画像93a,93bに示されるように、オスコネクタ2aは、メスコネクタ2bに接続完了した位置および姿勢(フレーム73a,73bで示されるオスコネクタモデル2a’の位置および姿勢)まで移動する。   The control device 50 controls the hand 31a for bringing the state of the male connector 2a on the real images 92a and 92b closer to the state of the male connector model 2a 'on the frames 73a and 73b based on the change information corresponding to the male connector 2a. Calculate the control amount. Then, the control device 50 outputs a control command indicating the calculated control amount to the robot controller 40a. The robot controller 40a controls the robot 30a according to a control command. As a result, as shown in the real images 93a and 93b, the male connector 2a moves to the position and posture at which the connection to the female connector 2b is completed (the position and posture of the male connector model 2a 'indicated by the frames 73a and 73b). .

このように、制御装置50は、実画像上のオスコネクタ2aおよびメスコネクタ2bの状態を目標フレーム上のオスコネクタモデル2a’およびメスコネクタモデル2b’の状態へそれぞれ変化させることができる。これにより、オスコネクタ2aおよびメスコネクタ2bの状態は、第1CG動画および第2CG動画に従って連係して変化する。   As described above, the control device 50 can change the states of the male connector 2a and the female connector 2b on the actual image to the states of the male connector model 2a 'and the female connector model 2b' on the target frame, respectively. Thereby, the states of the male connector 2a and the female connector 2b change in a coordinated manner according to the first CG moving image and the second CG moving image.

制御装置50は、撮像装置21,22とロボット30a,30bとの座標系をそれぞれ対応付けるキャリブレーションデータを用いることなく、ロボット30a,30bを制御できる。そのため、作業者は、キャリブレーションを予め行なう必要がない。そのため、ロボット30a,30bによってオスコネクタ2aおよびメスコネクタ2bの状態を所望の状態にそれぞれ変化させるために必要な手間を低減できる。     The control device 50 can control the robots 30a and 30b without using calibration data for associating the coordinate systems of the imaging devices 21 and 22 with the robots 30a and 30b. Therefore, the operator does not need to perform the calibration in advance. Therefore, it is possible to reduce the labor required for changing the states of the male connector 2a and the female connector 2b to desired states by the robots 30a and 30b.

キャリブレーションデータがある場合、撮像装置21,22によって撮像された画像からオスコネクタ2aおよびメスコネクタ2bの実空間上の位置および姿勢を特定し、当該位置および姿勢に基づいてロボット30a,30bを制御する方法が考えられる。しかしながら、ロボット30a,30bの経年劣化に応じてキャリブレーションデータの精度が低下して、オスコネクタ2aおよびメスコネクタ2bとをうまく接続できない可能性がある。さらに、オスコネクタ2aおよびメスコネクタ2bの位置ずれや個体差に起因して、オスコネクタ2aおよびメスコネクタ2bとをうまく接続できない可能性がある。このような場合であっても、本適用例を用いることにより、オスコネクタ2aおよびメスコネクタ2bとをCG動画通りに接続させることができる。   When there is calibration data, the positions and postures of the male connector 2a and the female connector 2b in the real space are specified from the images taken by the imaging devices 21 and 22, and the robots 30a and 30b are controlled based on the positions and postures. There is a way to do it. However, there is a possibility that the accuracy of the calibration data is reduced in accordance with the aging of the robots 30a and 30b, and the male connector 2a and the female connector 2b cannot be connected well. Furthermore, there is a possibility that the male connector 2a and the female connector 2b cannot be properly connected due to a positional shift or individual difference between the male connector 2a and the female connector 2b. Even in such a case, by using this application example, the male connector 2a and the female connector 2b can be connected as in the CG moving image.

<B.具体例>
次に、本実施の形態に係る制御システムの具体例について説明する。
<B. Specific example>
Next, a specific example of the control system according to the present embodiment will be described.

<B−1.制御装置のハードウェア構成>
図4は、実施の形態に係る制御システムを構成する制御装置のハードウェア構成を示す模式図である。図4に示されるように、制御装置50は、コンピュータアーキテクチャに従う構造を有しており、予めインストールされたプログラムをプロセッサが実行することで、後述するような各種の処理を実現する。
<B-1. Hardware configuration of control device>
FIG. 4 is a schematic diagram illustrating a hardware configuration of a control device included in the control system according to the embodiment. As shown in FIG. 4, the control device 50 has a structure according to a computer architecture, and executes various programs as described below by executing a program installed in advance by a processor.

より具体的には、制御装置50は、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)などのプロセッサ510と、RAM(Random Access Memory)512と、表示コントローラ514と、システムコントローラ516と、I/O(Input Output)コントローラ518と、ハードディスク520と、カメラインターフェイス522と、入力インターフェイス524と、ロボットコントローラインターフェイス526と、通信インターフェイス528と、メモリカードインターフェイス530とを含む。これらの各部は、システムコントローラ516を中心として、互いにデータ通信可能に接続される。   More specifically, the control device 50 includes a processor 510 such as a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit), a RAM (Random Access Memory) 512, a display controller 514, a system controller 516, It includes an I / O (Input Output) controller 518, a hard disk 520, a camera interface 522, an input interface 524, a robot controller interface 526, a communication interface 528, and a memory card interface 530. These units are connected to each other so as to enable data communication with the system controller 516 as the center.

プロセッサ510は、システムコントローラ516との間でプログラム(コード)などを交換して、これらを所定順序で実行することで、目的の演算処理を実現する。   The processor 510 exchanges programs (codes) and the like with the system controller 516, and executes the programs (codes) and the like in a predetermined order, thereby realizing the intended arithmetic processing.

システムコントローラ516は、プロセッサ510、RAM512、表示コントローラ514、およびI/Oコントローラ518とそれぞれバスを介して接続されており、各部との間でデータ交換などを行うとともに、制御装置50全体の処理を司る。   The system controller 516 is connected to the processor 510, the RAM 512, the display controller 514, and the I / O controller 518 via buses, respectively, exchanges data with each unit, and performs processing of the entire control device 50. Govern.

RAM512は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置であり、ハードディスク520から読み出されたプログラムや、撮像装置21,22によって取得された画像(画像データ)、画像に対する処理結果、およびワークデータなどを保持する。   The RAM 512 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory), and includes programs read from the hard disk 520, images (image data) acquired by the imaging devices 21 and 22, The processing result for the image, work data, and the like are stored.

表示コントローラ514は、表示部532と接続されており、システムコントローラ516からの内部コマンドに従って、各種の情報を表示するための信号を表示部532へ出力する。   The display controller 514 is connected to the display unit 532, and outputs a signal for displaying various information to the display unit 532 according to an internal command from the system controller 516.

I/Oコントローラ518は、制御装置50に接続される記録媒体や外部機器との間のデータ交換を制御する。より具体的には、I/Oコントローラ518は、ハードディスク520と、カメラインターフェイス522と、入力インターフェイス524と、ロボットコントローラインターフェイス526と、通信インターフェイス528と、メモリカードインターフェイス530と接続される。   The I / O controller 518 controls data exchange between a recording medium connected to the control device 50 and an external device. More specifically, the I / O controller 518 is connected to the hard disk 520, the camera interface 522, the input interface 524, the robot controller interface 526, the communication interface 528, and the memory card interface 530.

ハードディスク520は、典型的には、不揮発性の磁気記憶装置であり、プロセッサ510で実行される制御プログラム550に加えて、各種情報が格納される。このハードディスク520にインストールされる制御プログラム550は、メモリカード536などに格納された状態で流通する。なお、ハードディスク520に代えて、フラッシュメモリなどの半導体記憶装置やDVD−RAM(Digital Versatile Disk Random Access Memory)などの光学記憶装置を採用してもよい。   The hard disk 520 is typically a nonvolatile magnetic storage device, and stores various information in addition to the control program 550 executed by the processor 510. The control program 550 installed on the hard disk 520 is distributed while being stored in a memory card 536 or the like. Instead of the hard disk 520, a semiconductor storage device such as a flash memory or an optical storage device such as a DVD-RAM (Digital Versatile Disk Random Access Memory) may be adopted.

カメラインターフェイス522は、撮像装置21,22から画像データを受付ける入力部に相当し、プロセッサ510と撮像装置21,22との間のデータ伝送を仲介する。カメラインターフェイス522は、撮像装置21,22からの画像データをそれぞれ一時的に蓄積するための画像バッファ522a,522bを含む。複数の撮像装置に対して、共有できる単一の画像バッファを設けてもよいが、処理高速化のため、それぞれの撮像装置に対応付けて独立に複数配置することが好ましい。   The camera interface 522 corresponds to an input unit that receives image data from the imaging devices 21 and 22, and mediates data transmission between the processor 510 and the imaging devices 21 and 22. The camera interface 522 includes image buffers 522a and 522b for temporarily storing image data from the imaging devices 21 and 22, respectively. Although a single image buffer that can be shared may be provided for a plurality of imaging devices, it is preferable to independently arrange a plurality of image buffers in association with each imaging device in order to speed up processing.

入力インターフェイス524は、プロセッサ510とキーボード、マウス、タッチパネル、専用コンソールなどの入力装置534との間のデータ伝送を仲介する。   The input interface 524 mediates data transmission between the processor 510 and an input device 534 such as a keyboard, a mouse, a touch panel, and a dedicated console.

ロボットコントローラインターフェイス526は、プロセッサ510とロボットコントローラ40a,40bとの間のデータ伝送を仲介する。   The robot controller interface 526 mediates data transmission between the processor 510 and the robot controllers 40a, 40b.

通信インターフェイス528は、プロセッサ510と図示しない他のパーソナルコンピュータやサーバ装置などとの間のデータ伝送を仲介する。通信インターフェイス528は、典型的には、イーサネット(登録商標)やUSB(Universal Serial Bus)などからなる。   The communication interface 528 mediates data transmission between the processor 510 and another personal computer or server device (not shown). The communication interface 528 is typically made of Ethernet (registered trademark), USB (Universal Serial Bus), or the like.

メモリカードインターフェイス530は、プロセッサ510と記録媒体であるメモリカード536との間のデータ伝送を仲介する。メモリカード536には、制御装置50で実行される制御プログラム550などが格納された状態で流通し、メモリカードインターフェイス530は、このメモリカード536から制御プログラム550を読み出す。メモリカード536は、SD(Secure Digital)などの汎用的な半導体記憶デバイスや、フレキシブルディスク(Flexible Disk)などの磁気記録媒体や、CD−ROM(Compact Disk-Read Only Memory)などの光学記録媒体等からなる。あるいは、通信インターフェイス528を介して、配信サーバなどからダウンロードしたプログラムを制御装置50にインストールしてもよい。   The memory card interface 530 mediates data transmission between the processor 510 and the memory card 536 as a recording medium. The memory card 536 circulates in a state where a control program 550 executed by the control device 50 and the like are stored, and the memory card interface 530 reads the control program 550 from the memory card 536. The memory card 536 is a general-purpose semiconductor storage device such as SD (Secure Digital), a magnetic recording medium such as a flexible disk (Flexible Disk), an optical recording medium such as a CD-ROM (Compact Disk-Read Only Memory), and the like. Consists of Alternatively, a program downloaded from a distribution server or the like may be installed in the control device 50 via the communication interface 528.

上述のような汎用的なコンピュータアーキテクチャに従う構造を有するコンピュータを利用する場合には、本実施の形態に係る機能を提供するためのアプリケーションに加えて、コンピュータの基本的な機能を提供するためのOS(Operating System)がインストールされていてもよい。この場合には、本実施の形態に係る制御プログラムは、OSの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の順序および/またはタイミングで呼び出して処理を実行するものであってもよい。   When using a computer having a structure according to the general-purpose computer architecture as described above, an OS for providing basic functions of the computer in addition to an application for providing functions according to the present embodiment (Operating System) may be installed. In this case, the control program according to the present embodiment executes processing by calling necessary modules in a predetermined order and / or timing among program modules provided as a part of the OS. Is also good.

さらに、本実施の形態に係る制御プログラムは、他のプログラムの一部に組み込まれて提供されるものであってもよい。その場合にも、プログラム自体には、上記のような組み合わせられる他のプログラムに含まれるモジュールを含んでおらず、当該他のプログラムと協働して処理が実行される。すなわち、本実施の形態に係る制御プログラムとしては、このような他のプログラムに組み込まれた形態であってもよい。   Further, the control program according to the present embodiment may be provided by being incorporated in a part of another program. Even in such a case, the program itself does not include a module included in another program to be combined as described above, and the process is executed in cooperation with the other program. That is, the control program according to the present embodiment may be a form incorporated in such another program.

なお、代替的に、制御プログラムの実行により提供される機能の一部もしくは全部を専用のハードウェア回路として実装してもよい。   Alternatively, part or all of the functions provided by executing the control program may be implemented as a dedicated hardware circuit.

<B−2.制御装置の機能構成>
図5は、実施の形態に係る制御装置の機能構成を示すブロック図である。図5に示されるように、制御装置50は、動画記憶部51と、設計データ記憶部52と、CG動画生成部53と、教示範囲選択部54と、画像処理部55と、目標フレーム選択部56と、第1制御部57aと、第2制御部57bとを備える。動画記憶部51および設計データ記憶部52は、図4に示すハードディスク520およびRAM512によって構成される。CG動画生成部53と教示範囲選択部54と画像処理部55とは、図4に示すプロセッサ510が制御プログラム550を実行することにより実現される。
<B-2. Functional configuration of control device>
FIG. 5 is a block diagram illustrating a functional configuration of the control device according to the embodiment. As shown in FIG. 5, the control device 50 includes a moving image storage unit 51, a design data storage unit 52, a CG moving image generation unit 53, a teaching range selection unit 54, an image processing unit 55, and a target frame selection unit. 56, a first control unit 57a, and a second control unit 57b. The moving image storage unit 51 and the design data storage unit 52 include a hard disk 520 and a RAM 512 shown in FIG. The CG moving image generation unit 53, the teaching range selection unit 54, and the image processing unit 55 are realized by the processor 510 illustrated in FIG.

<B−2−1.動画記憶部>
動画記憶部51は、第1CG動画と第2CG動画とを記憶する。第1CG動画および第2CG動画は、CG動画生成部53によって生成される。
<B-2-1. Movie storage section>
The moving image storage unit 51 stores a first CG moving image and a second CG moving image. The first CG moving image and the second CG moving image are generated by the CG moving image generating unit 53.

<B−2−2.設計データ記憶部>
設計データ記憶部52は、オスコネクタ2a、メスコネクタ2b、ロボット30a,30b、および撮像装置21,22の設計データを記憶している。設計データは、たとえば、3D−CAD(Computer-Aided Design)データである。
<B-2-2. Design Data Storage>
The design data storage unit 52 stores design data of the male connector 2a, the female connector 2b, the robots 30a and 30b, and the imaging devices 21 and 22. The design data is, for example, 3D-CAD (Computer-Aided Design) data.

さらに、設計データ記憶部52は、実空間上のロボット30a,30bおよび撮像装置21,22の設置位置を示す配置データも記憶する。設計データ記憶部52は、撮像装置21,22の向きおよび画角も記憶する。   Further, the design data storage unit 52 also stores arrangement data indicating installation positions of the robots 30a and 30b and the imaging devices 21 and 22 in the real space. The design data storage unit 52 also stores the directions and the angles of view of the imaging devices 21 and 22.

<B−2−3.CG動画生成部>
CG動画生成部53は、第1CG動画および第2CG動画を生成する。CG動画生成部53は、公知のCG技術を用いて、第1CG動画および第2CG動画を生成すればよい。
<B-2-3. CG video generator>
The CG moving image generating unit 53 generates a first CG moving image and a second CG moving image. The CG moving image generation unit 53 may generate the first CG moving image and the second CG moving image using a known CG technique.

具体的には、CG動画生成部53は、ロボット30a,30bおよび撮像装置21,22の各モデルが設計データ記憶部52に記憶された配置データに従って配置された仮想空間を構築する。仮想空間には、ハンドモデル31a’およびステージモデル31b’が配置される(図2、図3参照)。仮想空間は、実空間を模擬した空間であり、実空間と同じ座標系で示される。CG動画生成部53は、構築した仮想空間を表示部532に表示させる。   Specifically, the CG moving image generation unit 53 constructs a virtual space in which the models of the robots 30a and 30b and the imaging devices 21 and 22 are arranged according to the arrangement data stored in the design data storage unit 52. A hand model 31a 'and a stage model 31b' are arranged in the virtual space (see FIGS. 2 and 3). The virtual space is a space simulating the real space, and is represented by the same coordinate system as the real space. The CG moving image generating unit 53 causes the display unit 532 to display the constructed virtual space.

CG動画生成部53は、仮想空間において、ステージモデル31b’上の初期位置に初期姿勢のメスコネクタモデル2b’を配置する。メスコネクタモデル2b’は、メスコネクタ2bの3D−CADデータによって生成される。初期位置および初期姿勢は、入力装置534を用いて操作者によって指定される。操作者は、実空間上において、上流側の装置から搬送されてきたメスコネクタ2bがステージ31b上に載置されるときの、メスコネクタ2bの平均的な位置および姿勢を初期位置および初期姿勢としてそれぞれ指定すればよい。   The CG moving image generation unit 53 arranges the female connector model 2b 'in the initial posture at the initial position on the stage model 31b' in the virtual space. The female connector model 2b 'is generated based on 3D-CAD data of the female connector 2b. The initial position and the initial posture are specified by the operator using the input device 534. The operator sets the average position and posture of the female connector 2b as the initial position and initial posture when the female connector 2b conveyed from the upstream device is placed on the stage 31b in the real space. You can specify each one.

さらに、CG動画生成部53は、仮想空間において、ハンドモデル31a’に把持されたオスコネクタモデル2a’を初期位置および初期姿勢に配置する。オスコネクタモデル2a’は、オスコネクタ2aの3D−CADデータによって生成される。当該初期位置および初期姿勢は、入力装置534を用いて操作者によって指定される。操作者は、実空間上において、上流側の装置から搬送されてきたオスコネクタ2aをハンド31aが把持すときの、オスコネクタ2aの平均的な位置および姿勢を初期位置および初期姿勢としてそれぞれ指定すればよい。   Further, the CG moving image generating unit 53 arranges the male connector model 2a 'held by the hand model 31a' in the initial position and the initial posture in the virtual space. The male connector model 2a 'is generated based on 3D-CAD data of the male connector 2a. The initial position and the initial posture are specified by the operator using the input device 534. The operator specifies the average position and posture of the male connector 2a as the initial position and the initial posture when the hand 31a grips the male connector 2a conveyed from the upstream device in the real space. I just need.

CG動画生成部53は、移動プログラムに従って、仮想空間上において各モデルを移動させたときの、撮像装置21のモデルを視点とするCG動画を第1CG動画として生成する。同様に、CG動画生成部53は、移動プログラムに従って、仮想空間上において各モデルを移動させたときの、撮像装置22のモデルを視点とするCG動画を第2CG動画として生成する。CG動画は、設計データ記憶部52が記憶する撮像装置21,22の向きおよび画角に基づいて生成される。   The CG moving image generation unit 53 generates, as a first CG moving image, a CG moving image having the viewpoint of the model of the imaging device 21 when each model is moved in the virtual space according to the moving program. Similarly, the CG moving image generating unit 53 generates, as a second CG moving image, a CG moving image having the viewpoint of the model of the imaging device 22 when each model is moved in the virtual space according to the moving program. The CG moving image is generated based on the orientation and the angle of view of the imaging devices 21 and 22 stored in the design data storage unit 52.

移動プログラムは、仮想空間上において、メスコネクタモデル2b’を初期位置および初期姿勢から所望の位置および姿勢に移動させた後、オスコネクタモデル2a’を上方からメスコネクタモデル2b’に向かって移動させてメスコネクタモデル2bと接続させるプログラムである。移動プログラムは、操作者によって指定された、メスコネクタモデル2b’およびオスコネクタモデル2a’の各々の移動経路に従って作成される。   The moving program moves the female connector model 2b ′ from the initial position and initial posture to a desired position and posture in the virtual space, and then moves the male connector model 2a ′ from above toward the female connector model 2b ′. This is a program for connecting to the female connector model 2b. The moving program is created according to the moving paths of the female connector model 2b 'and the male connector model 2a' specified by the operator.

<B−2−4.教示範囲選択部>
教示範囲選択部54は、対象物(ここではオスコネクタ2aおよびメスコネクタ2b)ごとに、第1CG動画および第2CG動画のうちの当該対象物の見本となる教示範囲を選択する。
<B-2-4. Teaching range selector>
The teaching range selection unit 54 selects, for each object (here, the male connector 2a and the female connector 2b), a teaching range serving as a sample of the object from the first CG moving image and the second CG moving image.

教示範囲選択部54は、教示範囲の選択指示を促す画面を表示部532に表示する。作業者は、第1CG動画および第2CG動画の各フレームを確認し、入力装置534を操作して、対象物のモデルが所望の動作をしている一連のフレーム群の先頭フレームと最終フレームとを指定する。教示範囲選択部54、指示された先頭フレームから最終フレームまでを教示範囲として選択する。   The teaching range selection unit 54 displays a screen prompting the user to select a teaching range on the display unit 532. The operator confirms each frame of the first CG moving image and the second CG moving image, and operates the input device 534 to determine the first frame and the last frame of a series of frames in which the model of the target object performs a desired operation. specify. The teaching range selection unit 54 selects the designated first frame to the last frame as the teaching range.

たとえば、図2に示される第1CG動画に対して、教示範囲選択部54は、1番目のフレーム70aからs番目よりも後フレーム(メスコネクタ2bの一部が欠け始めるフレーム)までをメスコネクタ2bの教示範囲として選択する。教示範囲選択部54は、1番目のフレーム70a(オスコネクタ2aの全体が現れ始めるフレーム)からu番目のフレーム73aまでをオスコネクタ2aの教示範囲として選択する。   For example, with respect to the first CG moving image shown in FIG. 2, the teaching range selection unit 54 sets the female connector 2b from the first frame 70a to a frame after the s-th frame (a frame where a part of the female connector 2b starts to be cut off). Is selected as the teaching range. The teaching range selection unit 54 selects a range from the first frame 70a (a frame where the entire male connector 2a starts to appear) to the u-th frame 73a as the teaching range of the male connector 2a.

同様に、図3に示される第2CG動画に対して、教示範囲選択部54は、1番目のフレーム70bからs番目よりも後フレーム(メスコネクタ2bの一部が欠け始めるフレーム)までをメスコネクタ2bの教示範囲として選択する。教示範囲選択部54は、1番目のフレーム70b(オスコネクタ2aの全体が現れ始めるフレーム)からu番目のフレーム73bまでをオスコネクタ2aの教示範囲として選択する。   Similarly, for the second CG moving image shown in FIG. 3, the teaching range selection unit 54 sets the female connector from the first frame 70b to the frame after the s-th frame (the frame where a part of the female connector 2b starts to be cut off). 2b is selected as the teaching range. The teaching range selection unit 54 selects from the first frame 70b (the frame where the entire male connector 2a starts to appear) to the u-th frame 73b as the teaching range of the male connector 2a.

<B−2−5.画像処理部>
画像処理部55は、対象画像に対して画像処理を行ない、テンプレートマッチングを用いて、対象画像中から対象物を検出する。テンプレートマッチングの基本処理は、対象物の画像特徴を表すデータであるテンプレートを予め用意しておき、対象画像とテンプレートとの間の画像特徴の一致度を評価することで、対象画像中の対象物の位置および姿勢を検出する処理である。
<B-2-5. Image processing section>
The image processing unit 55 performs image processing on the target image, and detects the target from the target image using template matching. In the basic processing of template matching, a template which is data representing the image feature of the target object is prepared in advance, and the degree of matching of the image feature between the target image and the template is evaluated. This is a process of detecting the position and the posture of the camera.

画像処理部55が画像処理を行なう対象画像は、第1CG動画のフレーム、第2CG動画のフレームおよび撮像装置21,22によって撮像された実画像である。   The target images on which the image processing unit 55 performs the image processing are the frames of the first CG moving image, the frames of the second CG moving image, and the real images captured by the imaging devices 21 and 22.

画像処理部55は、事前準備として、対象物(オスコネクタ2aおよびメスコネクタ2b)ごとのテンプレートを作成する。   The image processing unit 55 creates a template for each object (the male connector 2a and the female connector 2b) as advance preparation.

図6は、テンプレートの作成方法の一例を示す図である。図6に示されるように、画像処理部55は、メスコネクタ2bの設計データ(3D−CADデータ)に基づいて、様々な方向から見たときのメスコネクタ2bの2Dモデル画像を生成する。画像処理部55は、メスコネクタ2bの各2Dモデル画像から、メスコネクタ2bの複数の特徴点およびそれらの特徴量を抽出する。画像処理部55は、複数の特徴点の各々の画像上の座標と特徴量とをメスコネクタ2bのテンプレートとして作成する。   FIG. 6 is a diagram illustrating an example of a template creation method. As shown in FIG. 6, the image processing unit 55 generates a 2D model image of the female connector 2b when viewed from various directions, based on the design data (3D-CAD data) of the female connector 2b. The image processing unit 55 extracts a plurality of feature points of the female connector 2b and their feature amounts from each 2D model image of the female connector 2b. The image processing unit 55 creates the coordinates of each of the plurality of feature points on the image and the feature amounts as a template of the female connector 2b.

同様に、画像処理部55は、オスコネクタ2aの設計データ(3D−CADデータ)に基づいて、様々な方向から見たときのオスコネクタ2aの2Dモデル画像を生成する。画像処理部55は、オスコネクタ2aの各2Dモデル画像から、オスコネクタ2aの複数の特徴点およびそれらの特徴量を抽出する。画像処理部55は、複数の特徴点の各々の画像上の座標と特徴量とをオスコネクタ2aのテンプレートとして作成する。   Similarly, the image processing unit 55 generates a 2D model image of the male connector 2a when viewed from various directions, based on the design data (3D-CAD data) of the male connector 2a. The image processing unit 55 extracts a plurality of feature points of the male connector 2a and their feature amounts from each 2D model image of the male connector 2a. The image processing unit 55 creates the coordinates of each of the plurality of feature points on the image and the feature amounts as a template of the male connector 2a.

特徴点は、画像に含まれるかどや輪郭などから特徴づけられる点であり、たとえばエッジ点である。特徴量は、たとえば、輝度、輝度勾配方向、量子化勾配方向、HoG(Histogram of Oriented Gradients)、HAAR−like、SIFT(Scale-Invariant Feature Transform)などである。輝度勾配方向とは、特徴点を中心とする局所領域での輝度の勾配の方向(角度)を連続値で表すものであり、量子化勾配方向とは、特徴点を中心とする局所領域での輝度の勾配の方向を離散値で表す(たとえば、8方向を0〜7の1バイトの情報で保持する)ものである。   A feature point is a point characterized by a corner, a contour, or the like included in an image, and is, for example, an edge point. The feature amount is, for example, luminance, luminance gradient direction, quantization gradient direction, HoG (Histogram of Oriented Gradients), HAAR-like, SIFT (Scale-Invariant Feature Transform), and the like. The luminance gradient direction represents a direction (angle) of a luminance gradient in a local region centered on a feature point as a continuous value, and the quantization gradient direction is a local region centered on a feature point. The direction of the luminance gradient is represented by discrete values (for example, eight directions are held by 1-byte information of 0 to 7).

画像処理部55は、対象画像(第1CG動画のフレーム、第2CG動画のフレームおよび撮像装置21,22によって撮像される実画像)から複数の特徴点およびそれらの特徴量を抽出する。画像処理部55は、抽出された特徴点および特徴量と、対象物のテンプレートと照合することにより、対象画像中の対象物を検出する。   The image processing unit 55 extracts a plurality of feature points and their feature amounts from the target image (the frame of the first CG moving image, the frame of the second CG moving image, and the real images captured by the imaging devices 21 and 22). The image processing unit 55 detects the target in the target image by comparing the extracted feature points and feature amounts with the template of the target.

画像処理部55は、対象物(オスコネクタ2aおよびメスコネクタ2b)ごとに、対象画像から抽出した当該対象物の各特徴点の画像上の座標を出力する。   The image processing unit 55 outputs, for each target object (male connector 2a and female connector 2b), coordinates on the image of each feature point of the target object extracted from the target image.

<B−2−6.目標フレーム選択部>
目標フレーム選択部56は、第1CG動画および第2CG動画から目標フレームを選択する。ただし、目標フレーム選択部56は、第1CG動画のk番目のフレームを目標フレームとして選択した場合、第2CG動画のk番目のフレームを目標フレームとして選択する。目標フレームの選択方法の具体例については後述する。
<B-2-6. Target frame selection section>
The target frame selection unit 56 selects a target frame from the first CG moving image and the second CG moving image. However, when the k-th frame of the first CG moving image is selected as the target frame, the target frame selecting unit 56 selects the k-th frame of the second CG moving image as the target frame. A specific example of the target frame selection method will be described later.

<B−2−7.第1制御部および第2制御部>
第1制御部57aは、ロボットコントローラ40aを介してロボット30aを制御し、オスコネクタ2aの状態を変化させる。
<B-2-7. First Control Unit and Second Control Unit>
The first control unit 57a controls the robot 30a via the robot controller 40a and changes the state of the male connector 2a.

第2制御部57bは、ロボットコントローラ40bを介してロボット30bを制御し、メスコネクタ2bの状態を変化させる。   The second control unit 57b controls the robot 30b via the robot controller 40b and changes the state of the female connector 2b.

図7は、実施の形態における第1制御部および第2制御部の機能構成を示すブロック図である。図7に示されるように、第1制御部57aおよび第2制御部57bの各々は、変化情報生成部58と、変化情報記憶部59と、算出部60と、指令部61と、終了判定部62とを備える。変化情報記憶部59は、図4に示すハードディスク520およびRAM512によって構成される。変化情報生成部58と、算出部60と、指令部61と、終了判定部62とは、図4に示すプロセッサ510が制御プログラム550を実行することにより実現される。   FIG. 7 is a block diagram illustrating a functional configuration of the first control unit and the second control unit according to the embodiment. As shown in FIG. 7, each of the first control unit 57a and the second control unit 57b includes a change information generation unit 58, a change information storage unit 59, a calculation unit 60, a command unit 61, and an end determination unit. 62. The change information storage unit 59 includes the hard disk 520 and the RAM 512 shown in FIG. The change information generation unit 58, the calculation unit 60, the command unit 61, and the end determination unit 62 are realized by the processor 510 illustrated in FIG.

<B−2−8.変化情報生成部>
変化情報生成部58は、複数の自由度の各々に対して、対象ロボットの単位制御量と、撮像装置21によって撮像された実画像上の対象物の状態の変化量との関係を示す第1変化情報を生成する。変化情報生成部58は、複数の自由度に対してそれぞれ生成した複数の第1変化情報からなる第1変化情報セット591を変化情報記憶部59に格納する。
<B-2-8. Change information generator>
The change information generating unit 58 is configured to generate, for each of the plurality of degrees of freedom, a first control indicating a relationship between a unit control amount of the target robot and a change amount of the state of the target object on the real image captured by the imaging device 21. Generate change information. The change information generation unit 58 stores a first change information set 591 including a plurality of first change information generated for a plurality of degrees of freedom in the change information storage unit 59.

さらに、変化情報生成部58は、複数の自由度の各々に対して、対象ロボットの単位制御量と、撮像装置22によって撮像された実画像上の対象物の状態の変化量との関係を示す第2変化情報を生成する。変化情報生成部58は、複数の自由度に対してそれぞれ生成した複数の第2変化情報からなる第2変化情報セット592を変化情報記憶部59に格納する。   Further, the change information generating unit 58 indicates, for each of the plurality of degrees of freedom, the relationship between the unit control amount of the target robot and the change amount of the state of the target on the real image captured by the imaging device 22. The second change information is generated. The change information generation unit 58 stores, in the change information storage unit 59, a second change information set 592 including a plurality of pieces of second change information generated for a plurality of degrees of freedom.

対象物は、第1制御部57aではオスコネクタ2aであり、第2制御部57bではメスコネクタ2bである。対象ロボットは、第1制御部57aではロボット30aであり、第2制御部57bではロボット30bである。複数の自由度は、第1制御部57aでは6自由度であり、第2制御部57bでは3自由度である。   The target object is the male connector 2a in the first control unit 57a and the female connector 2b in the second control unit 57b. The target robot is the robot 30a in the first control unit 57a and the robot 30b in the second control unit 57b. The plurality of degrees of freedom are six degrees of freedom in the first control unit 57a and three degrees of freedom in the second control unit 57b.

本実施の形態では、第1変化情報および第2変化情報は、単位制御量だけ対象ロボットを制御したときの画像上の対象物の状態の変化量を示す。具体的には、第1変化情報および第2変化情報は、単位制御量だけ対象ロボットを制御する前の画像上の対象物を、単位制御量だけ対象ロボットを制御した後の画像上の対象物に変換する写像を示す。   In the present embodiment, the first change information and the second change information indicate the amount of change in the state of the target on the image when the target robot is controlled by the unit control amount. Specifically, the first change information and the second change information include an object on the image before controlling the target robot by the unit control amount, and an object on the image after controlling the target robot by the unit control amount. Here is a mapping that converts to

単位制御量だけ対象ロボットを制御したときの画像上の対象物の状態の変化量は、対象物の実空間上の状態に依存する。そのため、変化情報生成部58は、第1CG動画の教示範囲の各フレームに対して第1変化情報セット591を生成する。さらに、変化情報生成部58は、第2CG動画の教示範囲の各フレームに対して第2変化情報セット592を生成しする。   The amount of change in the state of the target on the image when the target robot is controlled by the unit control amount depends on the state of the target in the real space. Therefore, the change information generating unit 58 generates the first change information set 591 for each frame in the teaching range of the first CG moving image. Further, the change information generating unit 58 generates a second change information set 592 for each frame in the teaching range of the second CG moving image.

変化情報生成部58による第1変化情報セット591および第2変化情報セット592の生成および格納処理は、事前準備として実行される。   The process of generating and storing the first change information set 591 and the second change information set 592 by the change information generating unit 58 is executed as advance preparation.

図8を参照して、第1制御部57aにおける第1変化情報セット591の生成方法を説明する。なお、第1制御部57aにおける第2変化情報セット592の生成、ならびに、第2制御部57bにおける第1変化情報セット591および第2変化情報セット592の生成方法も同様の方法であるため、これらの生成方法の説明を省略する。   With reference to FIG. 8, a method of generating the first change information set 591 in the first control unit 57a will be described. Note that the method of generating the second change information set 592 in the first control unit 57a and the method of generating the first change information set 591 and the second change information set 592 in the second control unit 57b are the same. The description of the generation method is omitted.

図8は、第1制御部における第1変化情報セット591の生成方法を説明する図である。図8(a)は、第1CG動画のk番目のフレーム84を示す。k番目のフレーム84に対応するオスコネクタモデル2a’の仮想空間上の状態(位置および姿勢)を基準状態とする。   FIG. 8 is a diagram illustrating a method of generating the first change information set 591 in the first control unit. FIG. 8A shows the k-th frame 84 of the first CG moving image. The state (position and posture) in the virtual space of the male connector model 2a 'corresponding to the k-th frame 84 is set as a reference state.

図8(b)は、仮想空間上において基準状態からオスコネクタモデル2a’をY方向の並進自由度に単位制御量だけ並進移動させたときの、撮像装置21のモデルを視点とするCG画像85aを示す。図8(c)は、仮想空間上において基準状態からオスコネクタモデル2a’をX方向の並進自由度に単位制御量だけ並進移動させたときの、撮像装置21のモデルを視点とするCG画像85bを示す。図8(d)は、仮想空間上において基準状態からオスコネクタモデル2a’をZ方向の並進自由度に単位制御量だけ並進移動させたときの、撮像装置21のモデルを視点とするCG画像85cを示す。図8(e)は、仮想空間上において基準状態からオスコネクタモデル2a’をピッチ方向の回転自由度に単位制御量だけ回転移動させたときの、撮像装置21のモデルを視点とするCG画像85dを示す。図8(f)は、仮想空間上において基準状態からオスコネクタモデル2a’をヨー方向の回転自由度に単位制御量だけ回転移動させたときの、撮像装置21のモデルを視点とするCG画像85eを示す。図8(g)は、仮想空間上において基準状態からオスコネクタモデル2a’をロール方向の回転自由度に単位制御量だけ回転移動させたときの、撮像装置21のモデルを視点とするCG画像85fを示す。変化情報生成部58は、仮想空間上においてオスコネクタモデル2a’の位置および姿勢をシミュレートすることにより、CG画像85a〜85fを生成する。   FIG. 8B shows a CG image 85a with the model of the imaging device 21 as a viewpoint when the male connector model 2a ′ is translated from the reference state in the virtual space by a unit control amount to the degree of translational freedom in the Y direction. Is shown. FIG. 8C shows a CG image 85b with the model of the imaging device 21 as a viewpoint when the male connector model 2a 'is translated from the reference state in the virtual space by a unit control amount to the degree of translational freedom in the X direction. Is shown. FIG. 8D shows a CG image 85c with the model of the imaging device 21 as a viewpoint when the male connector model 2a ′ is translated from the reference state in the virtual space by a unit control amount to the translational freedom in the Z direction. Is shown. FIG. 8E shows a CG image 85d with the model of the imaging device 21 as a viewpoint when the male connector model 2a 'is rotated from the reference state in the virtual space by a unit control amount to the rotational degree of freedom in the pitch direction. Is shown. FIG. 8F shows a CG image 85e with the model of the imaging device 21 as a viewpoint when the male connector model 2a 'is rotated from the reference state in the virtual space by a unit control amount to the rotational degree of freedom in the yaw direction. Is shown. FIG. 8G shows a CG image 85f with the model of the imaging device 21 as a viewpoint when the male connector model 2a 'is rotated from the reference state in the virtual space by a unit control amount to the rotational degree of freedom in the roll direction. Is shown. The change information generating unit 58 generates CG images 85a to 85f by simulating the position and orientation of the male connector model 2a 'in the virtual space.

変化情報生成部58は、フレーム84およびCG画像85a〜85fの各々から抽出されたオスコネクタモデル2a’の各特徴点の画像上の座標を、画像処理部55から取得する。   The change information generation unit 58 acquires, from the image processing unit 55, the coordinates on the image of each feature point of the male connector model 2a 'extracted from each of the frame 84 and the CG images 85a to 85f.

変化情報生成部58は、フレーム84から抽出された特徴点4a’〜4g’の座標を、CG画像85aから抽出された特徴点5a’〜5g’の座標にそれぞれ変換する写像を示す情報を、Y方向の並進自由度に対応する第1変化情報として生成する。   The change information generation unit 58 outputs information indicating a mapping that converts the coordinates of the feature points 4a ′ to 4g ′ extracted from the frame 84 into the coordinates of the feature points 5a ′ to 5g ′ extracted from the CG image 85a, respectively. It is generated as first change information corresponding to the degree of freedom of translation in the Y direction.

同様に、変化情報生成部58は、特徴点4a’〜4g’の座標をCG画像85bから抽出された特徴点5a’〜5g’の座標に変換する写像を示す情報を、X方向の並進自由度に対応する第1変化情報として生成する。変化情報生成部58は、特徴点4a’〜4g’の座標を画像85cから抽出された特徴点5a’〜5g’の座標に変換する写像を示す情報を、Z方向の並進自由度に対応する第1変化情報として生成する。変化情報生成部58は、特徴点4a’〜4g’の座標を画像85dから抽出された特徴点5a’〜5g’の座標に変換する写像を示す情報を、ピッチ方向の回転自由度に対応する第1変化情報として生成する。変化情報生成部58は、特徴点4a’〜4g’の座標を画像85eから抽出された特徴点5a’〜5g’の座標に変換する写像を示す情報を、ヨー方向の回転自由度に対応する第1変化情報として生成する。変化情報生成部58は、特徴点4a’〜4g’の座標を画像85fから抽出された特徴点5a’〜5g’の座標に変換する写像を示す情報を、ロール方向の回転自由度に対応する第1変化情報として生成する。このようにして、変化情報生成部58は、第1CG動画のk番目のフレーム84に対応する第1変化情報セット591を生成する。   Similarly, the change information generation unit 58 converts the information indicating the mapping that converts the coordinates of the feature points 4a ′ to 4g ′ into the coordinates of the feature points 5a ′ to 5g ′ extracted from the CG image 85b by using the translation in the X direction. It is generated as first change information corresponding to the degree. The change information generation unit 58 converts information indicating a mapping that converts the coordinates of the feature points 4a ′ to 4g ′ into the coordinates of the feature points 5a ′ to 5g ′ extracted from the image 85c, in accordance with the translation degree in the Z direction. Generated as first change information. The change information generation unit 58 converts information indicating a mapping that transforms the coordinates of the feature points 4a ′ to 4g ′ into the coordinates of the feature points 5a ′ to 5g ′ extracted from the image 85d according to the rotational degree of freedom in the pitch direction. Generated as first change information. The change information generation unit 58 converts information indicating a mapping that converts the coordinates of the feature points 4a ′ to 4g ′ into the coordinates of the feature points 5a ′ to 5g ′ extracted from the image 85e, in accordance with the degree of rotation in the yaw direction. Generated as first change information. The change information generation unit 58 converts the information indicating the mapping that converts the coordinates of the feature points 4a ′ to 4g ′ into the coordinates of the feature points 5a ′ to 5g ′ extracted from the image 85f according to the rotational degree of freedom in the roll direction. Generated as first change information. In this way, the change information generating unit 58 generates the first change information set 591 corresponding to the k-th frame 84 of the first CG moving image.

変化情報生成部58は、同様の方法により、第1CG動画のうちの教示範囲の残りのフレームに対応する第1変化情報セット591を生成する。   The change information generating unit 58 generates a first change information set 591 corresponding to the remaining frames in the teaching range of the first CG moving image by the same method.

<B1−2−9.算出部>
算出部60は、撮像装置21,22によって撮像された実画像上の対象物の状態を第1CG動画および第2CG動画の目標フレーム上の対象物のモデルの状態にそれぞれ近づけるための複数の自由度の各々の制御量を算出する。
<B1-2-9. Calculation part>
The calculation unit 60 has a plurality of degrees of freedom for bringing the state of the target on the real image captured by the imaging devices 21 and 22 closer to the state of the model of the target on target frames of the first CG moving image and the second CG moving image, respectively. Is calculated.

算出部60は、変化情報記憶部59から、目標フレームに対応する第1変化情報セット591および第2変化情報セット592を取得し、取得した第1変化情報セット591および第2変化情報セット592に基づいて、制御量を算出する。上述したように、第1変化情報および第2変化情報は、単位制御量だけ対象ロボットを制御する前の画像上の対象物を、単位制御量だけ対象ロボットを制御した後の画像上の対象物に変換する写像を示す。そこで、算出部60は、実画像から抽出された対象物の特徴点の画像上の座標と、目標フレームから抽出された対象物のモデルの特徴点の画像上の座標とを画像処理部55から取得する。算出部60は、変化情報に基づいて、実画像上の対象物を目標フレーム上の対象物のモデルに写像するための複数の自由度の各々の制御量を算出する。   The calculation unit 60 obtains the first change information set 591 and the second change information set 592 corresponding to the target frame from the change information storage unit 59, and stores the acquired first change information set 591 and second change information set 592 in the set. The control amount is calculated based on the control amount. As described above, the first change information and the second change information include an object on the image before controlling the target robot by the unit control amount and an object on the image after controlling the target robot by the unit control amount. Here is a mapping that converts to Therefore, the calculation unit 60 calculates the coordinates of the feature points of the object extracted from the real image on the image and the coordinates of the feature points of the model of the object extracted from the target frame from the image processing unit 55. get. The calculation unit 60 calculates a control amount of each of a plurality of degrees of freedom for mapping an object on the real image to a model of the object on the target frame based on the change information.

図9を参照して、第1制御部57aの算出部60による制御量の算出方法を説明する。なお、第2制御部57bの算出部60による制御量の算出方法も同様の方法であるため、説明を省略する。   With reference to FIG. 9, a method of calculating the control amount by the calculating unit 60 of the first control unit 57a will be described. In addition, the calculation method of the control amount by the calculation unit 60 of the second control unit 57b is the same method, and thus the description is omitted.

図9は、第1制御部の算出部による制御量の算出方法を説明する図である。算出部60は、第1CG動画の目標フレームから抽出されたオスコネクタモデル2a’の特徴点4a’〜4g’の画像上の座標を画像処理部55から取得する。さらに、算出部60は、撮像装置21の撮像により得られた実画像から抽出されたオスコネクタ2aの特徴点4a〜4gの画像上の座標を画像処理部55から取得する。なお、特徴点の数は、7つに限定されるものではない。   FIG. 9 is a diagram illustrating a method of calculating a control amount by the calculation unit of the first control unit. The calculation unit 60 acquires, from the image processing unit 55, the coordinates on the image of the feature points 4a 'to 4g' of the male connector model 2a 'extracted from the target frame of the first CG moving image. Further, the calculation unit 60 acquires, from the image processing unit 55, the coordinates on the image of the characteristic points 4a to 4g of the male connector 2a extracted from the real image obtained by the imaging of the imaging device 21. The number of feature points is not limited to seven.

算出部60は、各特徴点の差分ベクトル6a〜6gを算出する。差分ベクトル6a〜6gはそれぞれ、特徴点4a〜4gを起点とし、特徴点4a’〜4g’を終点とするベクトルである。算出部60は、差分ベクトル6a〜6gの平均のx成分Δx1およびy成分Δy1を算出する。x成分およびy成分は、画像の座標系で示される。   The calculation unit 60 calculates the difference vectors 6a to 6g of each feature point. The difference vectors 6a to 6g are vectors starting from the feature points 4a to 4g and ending at the feature points 4a 'to 4g', respectively. The calculation unit 60 calculates the average x component Δx1 and y component Δy1 of the difference vectors 6a to 6g. The x component and the y component are indicated by the coordinate system of the image.

同様の方法により、算出部60は、撮像装置22の撮像により得られた実画像から抽出された特徴点と第2基準動画の目標フレームから抽出された特徴点との差分ベクトルの平均のx成分Δx2およびy成分Δy2を算出する。   In a similar manner, the calculation unit 60 calculates the average x component of the difference vector between the feature point extracted from the real image obtained by the imaging of the imaging device 22 and the feature point extracted from the target frame of the second reference moving image. Calculate Δx2 and y component Δy2.

まず、算出部60は、複数の特徴点それぞれの差分ベクトルの平均分がなくなるように、3つの並進自由度の制御量を算出する。具体的には、算出部60は、Δx1,Δy1,Δx2およびΔy2と第1変化情報セット591と第2変化情報セット592とを用いて、ハンド31aのX方向、Y方向およびZ方向の並進自由度の各々の制御量を算出する。   First, the calculation unit 60 calculates the control amounts of the three translational degrees of freedom such that the average of the difference vectors of the plurality of feature points is eliminated. Specifically, the calculation unit 60 uses the Δx1, Δy1, Δx2, and Δy2, the first change information set 591 and the second change information set 592 to perform translation free movement in the X, Y, and Z directions of the hand 31a. The control amount of each degree is calculated.

ハンド31aがX方向、Y方向およびZ方向の並進自由度のいずかに並進移動した場合、撮像装置21,22の撮像により得られる画像上において、オスコネクタ2aは一定方向に並進移動する。そのため、第1変化情報セット591における並進自由度に対応する第1変化情報は、画像上の任意の点を一定方向に並進移動させた点に変換する写像を示す。同様に、第2変化情報セット592における並進自由度に対応する第2変化情報は、画像上の任意の点を一定方向に並進移動させた点に変換する写像を示す。   When the hand 31a translates in any of the degrees of freedom of translation in the X direction, the Y direction, and the Z direction, the male connector 2a translates in a certain direction on an image obtained by imaging by the imaging devices 21 and 22. Therefore, the first change information corresponding to the translation degree of freedom in the first change information set 591 indicates a mapping that converts an arbitrary point on the image into a point translated in a certain direction. Similarly, the second change information corresponding to the degree of freedom of translation in the second change information set 592 indicates a mapping that converts an arbitrary point on the image into a point translated in a certain direction.

ここで、目標フレームに対応する第1変化情報セット591のX方向の並進自由度に対応する第1変化情報が、点(x、y)を点(x+dX1_1,y+dY1_1)に変換する写像を示すものとする。Y方向への並進自由度に対応する第1変化情報が、画像上の任意の点(x、y)を点(x+dX1_2,y+dY1_2)に変換する写像を示すものとする。Z方向への並進自由度に対応する第1変化情報が、画像上の任意の点(x、y)を点(x+dX1_3,y+dY1_3)に変換する写像を示すものとする。   Here, the first change information corresponding to the translational degree of freedom in the X direction of the first change information set 591 corresponding to the target frame indicates a mapping that converts a point (x, y) into a point (x + dX1_1, y + dY1_1). And The first change information corresponding to the degree of freedom of translation in the Y direction indicates a mapping that converts an arbitrary point (x, y) on the image into a point (x + dX1_2, y + dY1_2). It is assumed that the first change information corresponding to the degree of freedom of translation in the Z direction indicates a mapping that converts an arbitrary point (x, y) on the image into a point (x + dX1_3, y + dY1_3).

さらに、目標フレームに対応する第2変化情報セット592のX方向への並進自由度に対応する第2変化情報が、画像上の任意の点(x、y)を点(x+dX2_1,y+dY2_1)に変換する写像を示すものとする。Y方向への並進自由度に対応する第2変化情報が、画像上の任意の点(x、y)を点(x+dX2_2,y+dY2_2)に変換する写像を示すものとする。Z方向への並進自由度に対応する第2変化情報が、画像上の任意の点(x、y)を点(x+dX2_3,y+dY2_3)に変換する写像を示すものとする。   Further, the second change information corresponding to the degree of freedom of translation in the X direction of the second change information set 592 corresponding to the target frame converts an arbitrary point (x, y) on the image into a point (x + dX2_1, y + dY2_1). Are shown. The second change information corresponding to the degree of freedom of translation in the Y direction indicates a mapping that converts an arbitrary point (x, y) on the image into a point (x + dX2_2, y + dY2_2). The second change information corresponding to the translation degree of freedom in the Z direction indicates a mapping that converts an arbitrary point (x, y) on the image into a point (x + dX2_3, y + dY2_3).

このとき、算出部60は、以下の4つの線形方程式(1)〜(4)を解くことにより、係数a1,a2,a3を算出する。   At this time, the calculation unit 60 calculates coefficients a1, a2, and a3 by solving the following four linear equations (1) to (4).

a1×dX1_1+a2×dX1_2+a3×dX1_3=Δx1 ・・(1)
a1×dY1_1+a2×dY1_2+a3×dY1_3=Δy1 ・・(2)
a1×dX2_1+a2×dX2_2+a3×dX2_3=Δx2 ・・(3)
a1×dY2_1+a2×dY2_2+a3×dY2_3=Δy2 ・・(4)。
a1 × dX1_1 + a2 × dX1_2 + a3 × dX1_3 = Δx1 (1)
a1 × dY1_1 + a2 × dY1_2 + a3 × dY1_3 = Δy1 (2)
a1 × dX2_1 + a2 × dX2_2 + a3 × dX2_3 = Δx2 (3)
a1 × dY2_1 + a2 × dY2_2 + a3 × dY2_3 = Δy2 (4).

本実施の形態では、第1変化情報および第2変化情報は、単位制御量だけ対象ロボットを制御したときの画像上の対象物の状態の変化量を示す。そのため、算出部60は、X方向の並進自由度の制御量を単位制御量のa1倍、Y方向の並進自由度の制御量を単位制御量のa2倍、Z方向の並進自由度の制御量を単位制御量のa3倍とする。これら並進自由度の制御量は、複数の特徴点の差分ベクトルの平均分だけ、実画像上のオスコネクタ2aの状態を目標フレーム上のオスコネクタ2aの状態に近づけるための制御量である。   In the present embodiment, the first change information and the second change information indicate the amount of change in the state of the target on the image when the target robot is controlled by the unit control amount. Therefore, the calculation unit 60 determines that the control amount of the translational freedom in the X direction is a1 times the unit control amount, the control amount of the translational freedom in the Y direction is a2 times the unit control amount, and the control amount of the translational freedom in the Z direction. Is a3 times the unit control amount. The control amounts of these translation degrees of freedom are control amounts for bringing the state of the male connector 2a on the real image closer to the state of the male connector 2a on the target frame by the average of the difference vectors of the plurality of feature points.

次に、算出部60は、3つの回転自由度の各々の制御量を算出する。算出部60は、各特徴点の差分ベクトルから上記の平均のx成分(Δx1またはΔx2)およびy成分(Δy1またはΔy2)を差し引く。算出部60は、たとえば山登り法のような探索アルゴリズムを用いて、各特徴点の差分ベクトルの残差が最も0に近くなる3つの回転自由度の制御量を算出する。   Next, the calculation unit 60 calculates a control amount of each of the three rotational degrees of freedom. The calculation unit 60 subtracts the average x component (Δx1 or Δx2) and the y component (Δy1 or Δy2) from the difference vector of each feature point. The calculating unit 60 calculates a control amount of three rotational degrees of freedom in which the residual of the difference vector of each feature point is closest to 0, using a search algorithm such as a hill-climbing method, for example.

具体的には、算出部60は、ピッチ方向、ヨー方向およびロール方向の回転自由度の制御量が0である解を現在の解として探索アルゴリズムを開始する。算出部60は、現在の解の近傍の複数の解の各々に従ってロボット30aを制御したときの、各特徴点の差分ベクトルの残差の変化をシミュレーションする。算出部60は、シミュレーション結果から、現在の解よりも各特徴点の差分ベクトルの残差が0に近い近傍解が存在する場合に、当該近傍解を現在の解に置き換える。算出部60は、この処理を繰り返すことにより、差分ベクトルの残差が極値となる解を探索する。   Specifically, the calculation unit 60 starts a search algorithm with a solution in which the control amounts of the rotational degrees of freedom in the pitch direction, the yaw direction, and the roll direction are 0 as the current solution. The calculation unit 60 simulates a change in the residual of the difference vector of each feature point when the robot 30a is controlled according to each of a plurality of solutions near the current solution. The calculation unit 60 replaces the neighboring solution with the current solution when there is a neighboring solution whose residual of the difference vector of each feature point is closer to 0 than the current solution based on the simulation result. The calculation unit 60 searches for a solution in which the residual of the difference vector becomes an extreme value by repeating this process.

<B−2−10.指令部>
指令部61は、算出部60によって算出された制御量だけ対象ロボットを移動させるための制御指令を生成し、生成した制御指令を対象ロボットコントローラに出力する。対象ロボットコントローラは、第1制御部57aではロボットコントローラ40aであり、第2制御部57bではロボットコントローラ40bである。
<B-2-10. Command part>
The command unit 61 generates a control command for moving the target robot by the control amount calculated by the calculation unit 60, and outputs the generated control command to the target robot controller. The target robot controller is the robot controller 40a in the first control unit 57a and the robot controller 40b in the second control unit 57b.

<B−2−11.終了判定部>
終了判定部62は、実画像上の対象物の状態と教示範囲の最終フレーム上の対象物のモデルの状態との偏差を算出し、算出した偏差が予め定められた閾値未満である場合に、対象ロボットの制御を終了すると判定する。終了判定部62は、対象ロボットの制御を終了すると判定すると、終了通知を出力する。
<B-2-11. End determination section>
The end determination unit 62 calculates a deviation between the state of the object on the real image and the state of the model of the object on the last frame of the teaching range, and when the calculated deviation is less than a predetermined threshold, It is determined that the control of the target robot ends. When determining that the control of the target robot is to be ended, the end determination unit 62 outputs an end notification.

偏差は、たとえば、実画像および最終フレームから抽出された対応する特徴点同士の距離の平均である。   The deviation is, for example, an average of distances between corresponding feature points extracted from the real image and the last frame.

閾値は、対象物の状態に要求される精度に応じて設定される。閾値は、第1制御部57aでは閾値Thaであり、第2制御部57bでは閾値Thbである。閾値Thaと閾値Thbとは同じであってもよいし、異なっていてもよい。   The threshold is set according to the accuracy required for the state of the target. The threshold value is the threshold value Tha in the first control unit 57a and the threshold value Thb in the second control unit 57b. The threshold value Tha and the threshold value Thb may be the same or different.

<C.動作例>
<C−1.ロボットの制御>
図10を参照して、第1CG動画および第2CG動画に従って対象物の状態を変化させるように対象ロボットを制御する処理の流れについて説明する。図10は、第1CG動画および第2CG動画に沿って対象物の状態を変化させるように対象ロボットを制御する処理の流れの一例を示すフローチャートである。
<C. Operation example>
<C-1. Robot control>
With reference to FIG. 10, a description will be given of a processing flow for controlling the target robot so as to change the state of the target object according to the first CG moving image and the second CG moving image. FIG. 10 is a flowchart illustrating an example of a process flow for controlling the target robot so as to change the state of the target object along the first CG moving image and the second CG moving image.

まずステップS1において、制御装置50は、全ての制御部(第1制御部57aおよび第2制御部57b)の終了判定部62から終了通知が出力されているか否かを判定する。全ての制御部の終了判定部62から終了通知が出力されている場合(ステップS1でYES)、処理を終了する。   First, in step S1, the control device 50 determines whether or not an end notification has been output from the end determination units 62 of all the control units (the first control unit 57a and the second control unit 57b). If the end notification has been output from the end determination units 62 of all the control units (YES in step S1), the process ends.

全ての制御部の終了判定部62から終了通知が出力されていない場合(ステップS1でNO)、ステップS2において、制御装置50は、撮像装置21,22によって撮像された実画像を取得する。   When the end notification has not been output from the end determination units 62 of all the control units (NO in step S1), in step S2, the control device 50 acquires the actual images captured by the imaging devices 21 and 22.

ステップS3において、画像処理部55は、テンプレートマッチングにより、実画像から全ての対象物(オスコネクタ2aおよびメスコネクタ2b)を検出し、各対象物の特徴点の座標を抽出する。さらに、画像処理部55は、テンプレートマッチングにより、目標フレームから全ての対象物のモデル(オスコネクタモデル2a’およびメスコネクタモデル2b’)を検出し、各モデルの特徴点の座標を抽出する。   In step S3, the image processing unit 55 detects all the objects (male connector 2a and female connector 2b) from the real image by template matching, and extracts the coordinates of the feature points of each object. Further, the image processing unit 55 detects all target models (male connector model 2a 'and female connector model 2b') from the target frame by template matching, and extracts the coordinates of the feature points of each model.

ステップS4において、目標フレーム選択部56は、第1CG動画および第2CG動画から目標フレームを選択する。   In step S4, the target frame selection unit 56 selects a target frame from the first CG moving image and the second CG moving image.

ステップS5において、目標フレーム選択部56は、目標フレームを教示範囲内に含む対象物を特定し、特定した対象物を制御する制御部(第1制御部57aおよび第2制御部57bの少なくとも一方)に対して制御指示を出力する。   In step S5, the target frame selection unit 56 specifies a target including the target frame within the teaching range and controls the specified target (at least one of the first control unit 57a and the second control unit 57b). And outputs a control instruction to.

ステップS6において、制御指示を受けた制御部(第1制御部57aおよび第2制御部57bの少なくとも一方)は、対象ロボットの制御を行う。ステップS6の後、処理はステップS1に戻る。ステップS1でNOである場合、ステップS2〜S6の一連処理が撮像周期毎に繰り返される。また、ステップS1でNOである場合、ステップS2〜S6がステップS6による対象ロボットの制御を行っている間に、次の実画像を取得するステップS2を開始してもよい。これにより、対象ロボットの動作を停止させることなく、最新の実画像に応じて対象ロボットが制御され続ける。その結果、対象物の状態を速く変化させることができる。   In step S6, the control unit (at least one of the first control unit 57a and the second control unit 57b) that has received the control instruction controls the target robot. After step S6, the process returns to step S1. If NO in step S1, a series of processing in steps S2 to S6 is repeated for each imaging cycle. If NO in step S1, step S2 of acquiring the next actual image may be started while steps S2 to S6 control the target robot in step S6. Thus, the target robot is continuously controlled according to the latest actual image without stopping the operation of the target robot. As a result, the state of the object can be changed quickly.

<C−2.目標フレームの選択>
図11および図12を参照して、目標フレーム選択部56による目標フレームの選択処理の流れについて説明する。図11は、図10に示すステップS4のサブルーチンの処理の流れを示すフローチャートである。図12は、最近接フレームと目標フレームとの関係を示す図である。
<C-2. Select target frame>
With reference to FIG. 11 and FIG. 12, a flow of a target frame selecting process performed by the target frame selecting unit 56 will be described. FIG. 11 is a flowchart showing the flow of the processing of the subroutine of step S4 shown in FIG. FIG. 12 is a diagram illustrating the relationship between the closest frame and the target frame.

まずステップS11において、目標フレーム選択部56は、第1CG動画および第2CG動画の各フレームから抽出された全ての対象物のモデルの特徴点の座標を画像処理部55から取得する。   First, in step S11, the target frame selection unit 56 acquires from the image processing unit 55 the coordinates of the feature points of the models of all the objects extracted from each frame of the first CG moving image and the second CG moving image.

ステップS12において、目標フレーム選択部56は、撮像装置21,22によって撮像された実画像から抽出された全ての対象物の特徴点の座標を画像処理部55から取得する。   In step S12, the target frame selection unit 56 obtains, from the image processing unit 55, the coordinates of the characteristic points of all the objects extracted from the real images captured by the imaging devices 21 and 22.

ステップS13において、目標フレーム選択部56は、1回目の目標フレームの選択が完了しているか否かを判定する。   In step S13, the target frame selection unit 56 determines whether the first target frame selection has been completed.

1回目の目標フレームの選択が完了している場合(ステップS13でYES)、ステップS14において、目標フレーム選択部56は、前回の目標フレームがいずれかの対象物に対応する教示範囲の最終フレームであるか否かを判定する。   If the first target frame selection has been completed (YES in step S13), in step S14, the target frame selecting unit 56 determines that the previous target frame is the last frame in the teaching range corresponding to any one of the objects. It is determined whether or not there is.

前回の目標フレームが最終フレームである場合(ステップS14でYES)、処理はステップS15に移る。ステップS15において、目標フレーム選択部56は、当該最終フレームが属する教示範囲に対応する対象物について、実画像上の対象物の状態と最終フレーム上の対象物のモデルの状態との偏差を算出し、偏差が閾値未満であるか否かを判定する。偏差は、たとえば、実画像および最終フレームにおける対応する特徴点同士の距離の平均である。   If the previous target frame is the last frame (YES in step S14), the process proceeds to step S15. In step S15, the target frame selection unit 56 calculates the deviation between the state of the target on the real image and the state of the model of the target on the final frame for the target corresponding to the teaching range to which the final frame belongs. , The deviation is less than the threshold. The deviation is, for example, an average of distances between corresponding feature points in the real image and the final frame.

偏差が閾値以上である場合(ステップS15でNO)、ステップS16において、目標フレーム選択部56は、前回の目標フレームと同じフレームを目標フレームとして選択する。ステップS16の後、処理は終了する。   If the deviation is equal to or larger than the threshold (NO in step S15), in step S16, the target frame selecting unit 56 selects the same frame as the previous target frame as the target frame. After step S16, the process ends.

偏差が閾値未満である場合(ステップS15でYES)、対象物の状態が最終フレーム上の対象物のモデルの状態に到達したと判定され、処理はステップS17に移る。1回目の目標フレームの選択が完了していない場合(ステップS13でNO)、および前回の目標フレームが最終フレームでない場合(ステップS14でNO)も、処理はステップS17に移る。   If the deviation is less than the threshold (YES in step S15), it is determined that the state of the object has reached the state of the model of the object on the final frame, and the process proceeds to step S17. If the first target frame selection has not been completed (NO in step S13), and if the previous target frame is not the last frame (NO in step S14), the process proceeds to step S17.

ステップS17において、目標フレーム選択部56は、実画像上における全ての対象物の状態と各フレーム上における全ての対象物のモデルの状態との偏差を算出し、最小偏差のフレームを最近接フレームとして特定する。偏差は、たとえば、実画像および各フレームにおける対応する特徴点同士の距離の平均である。   In step S17, the target frame selecting unit 56 calculates the deviation between the state of all the objects on the real image and the state of the model of all the objects on each frame, and sets the frame with the minimum deviation as the closest frame. Identify. The deviation is, for example, an average of distances between corresponding feature points in the actual image and each frame.

具体的には、目標フレーム選択部56は、撮像装置21によって撮像された実画像上における全ての対象物の状態と第1CG動画のk番目のフレーム上における全ての対象物のモデルの状態との第1偏差を算出する。さらに、目標フレーム選択部56は、撮像装置22によって撮像された実画像上における全ての対象物の状態と第2基準動画のk番目のフレーム上における全ての対象物のモデルの状態との第2偏差を算出する。目標フレーム選択部56は、第1偏差と第2偏差との平均をk番目のフレームに対応する偏差として算出する。   Specifically, the target frame selection unit 56 determines the state of all the objects on the real image captured by the imaging device 21 and the state of the model of all the objects on the k-th frame of the first CG moving image. A first deviation is calculated. Further, the target frame selection unit 56 is configured to determine the second state of the state of all the objects on the real image captured by the imaging device 22 and the state of the model of all the objects on the k-th frame of the second reference moving image. Calculate the deviation. The target frame selection unit 56 calculates the average of the first deviation and the second deviation as the deviation corresponding to the k-th frame.

ステップS18において、目標フレーム選択部56は、最近接フレームから所定数だけ後のフレームまでに、いずれかの教示範囲の最終フレームがあるか否かを判定する。   In step S18, the target frame selection unit 56 determines whether or not there is a last frame in any of the teaching ranges up to a predetermined number of frames after the closest frame.

最終フレームがある場合(ステップS18でYES)、ステップS19において、目標フレーム選択部56は、当該最終フレームを目標フレームとして選択する。なお、最近接フレームから所定数だけ後のフレームまでに複数の最終フレームがある場合、目標フレーム選択部56は、当該複数の最終フレームのうち最もフレーム番号の小さい最終フレームを選択する。   If there is a final frame (YES in step S18), in step S19, the target frame selecting unit 56 selects the final frame as a target frame. If there are a plurality of final frames up to a predetermined number of frames after the closest frame, the target frame selecting unit 56 selects the last frame having the smallest frame number among the plurality of final frames.

最終フレームがない場合(ステップS18でNO)、ステップS20において、目標フレーム選択部56は、最近接フレームから所定数だけ後のフレームを目標フレームとして選択する。ステップS20の後、目標フレームの選択処理は終了する。   If there is no last frame (NO in step S18), in step S20, the target frame selection unit 56 selects a frame that is a predetermined number later than the closest frame as the target frame. After step S20, the target frame selection process ends.

<C−3.制御部の処理>
図13を参照して、図10のステップS6のサブルーチンの処理について説明する。図13は、図10に示すステップS6のサブルーチンの処理の流れを示すフローチャートである。
<C-3. Processing of control unit>
The processing of the subroutine of step S6 in FIG. 10 will be described with reference to FIG. FIG. 13 is a flowchart showing the flow of the processing of the subroutine of step S6 shown in FIG.

まずステップS21において、終了判定部62は、目標フレームが教示範囲の最終フレームであるか否かを判定する。   First, in step S21, the end determination unit 62 determines whether the target frame is the last frame in the teaching range.

目標フレームが最終フレームである場合(ステップS21でYES)、ステップS22において、終了判定部62は、実画像上における対象物の状態と最終フレーム上における対象物のモデルの状態との偏差が閾値未満か否かを判定する。   If the target frame is the final frame (YES in step S21), in step S22, the end determination unit 62 determines that the deviation between the state of the target on the real image and the state of the model of the target on the final frame is less than the threshold. It is determined whether or not.

偏差が閾値未満である場合(ステップS22でYES)、ステップS23において、終了判定部62は、終了通知を出力する。ステップS23の後、処理は終了する。   When the deviation is smaller than the threshold (YES in step S22), in step S23, the termination determination unit 62 outputs a termination notification. After step S23, the process ends.

目標フレームが最終フレームではない場合(ステップS21でNO)、および、偏差が閾値以上である場合(ステップS22でNO)、処理はステップS24に移る。   If the target frame is not the last frame (NO in step S21) and if the deviation is equal to or larger than the threshold (NO in step S22), the process proceeds to step S24.

ステップS24において、算出部60は、目標フレームに対応する第1変化情報セット591および第2変化情報セット592に基づいて、実画像上の対象物の状態を目標フレーム上の対象物のモデルの状態に近づけるための複数の自由度の各々の制御量を算出する。   In step S24, the calculation unit 60 converts the state of the target on the real image into the state of the model of the target on the target frame based on the first change information set 591 and the second change information set 592 corresponding to the target frame. Is calculated for each of the plurality of degrees of freedom to approach.

ステップS25において、指令部61は、算出された制御量を示す制御指令を生成し、対象ロボットコントローラに出力する。ステップS25の後、処理は終了する。   In step S25, the command unit 61 generates a control command indicating the calculated control amount and outputs the control command to the target robot controller. After step S25, the process ends.

第1制御部57aおよび第2制御部57bはそれぞれ、図13に示す流れに従って、対象ロボットを制御する。オスコネクタ2aおよびメスコネクタ2bの教示範囲に目標フレームが含まれる場合、実画像上のオスコネクタ2aの状態が目標フレーム上のオスコネクタモデル2a’の状態に近づくようにロボット30aが制御される。さらに、実画像上のメスコネクタ2bの状態が目標フレーム上のメスコネクタモデル2b’の状態に近づくようにロボット30bが制御される。これにより、オスコネクタ2aおよびメスコネクタ2bの状態は、目標フレームに従って連係して変化する。   The first control unit 57a and the second control unit 57b each control the target robot according to the flow shown in FIG. When the target frame is included in the teaching range of the male connector 2a and the female connector 2b, the robot 30a is controlled such that the state of the male connector 2a on the actual image approaches the state of the male connector model 2a 'on the target frame. Further, the robot 30b is controlled such that the state of the female connector 2b on the actual image approaches the state of the female connector model 2b 'on the target frame. As a result, the states of the male connector 2a and the female connector 2b change in a coordinated manner according to the target frame.

<C−4.作用・効果>
以上のように、制御システム1は、ロボット30a,30bと、撮像装置21,22と、ロボット30a,30bを制御する制御装置50とを備える。ロボット30a,30bは、オスコネクタ2aおよびメスコネクタ2bを支持して、オスコネクタ2aおよびメスコネクタ2bの状態をそれぞれ変化させる。撮像装置21,21は、ロボット30a,30bと異なる固定位置に設置され、ロボット30a,30bによってそれぞれ支持されたオスコネクタ2aおよびメスコネクタ2bを撮像する。
<C-4. Action / Effect>
As described above, the control system 1 includes the robots 30a and 30b, the imaging devices 21 and 22, and the control device 50 that controls the robots 30a and 30b. The robots 30a and 30b support the male connector 2a and the female connector 2b, and change the states of the male connector 2a and the female connector 2b, respectively. The imaging devices 21 and 21 are installed at fixed positions different from the robots 30a and 30b, and image the male connector 2a and the female connector 2b supported by the robots 30a and 30b, respectively.

制御装置50は、オスコネクタ2aおよびメスコネクタ2bのモデルを示す第1CG動画および第2CG動画を記憶している。   The control device 50 stores a first CG moving image and a second CG moving image indicating models of the male connector 2a and the female connector 2b.

制御装置50は、オスコネクタ2aおよびメスコネクタ2bの各々について変化情報を取得する。オスコネクタ2aに対応する変化情報は、ロボット30aの制御量と、撮像装置21,22の画像上におけるオスコネクタ2aの状態の変化量との関係を示す。メスコネクタ2bに対応する変化情報は、ロボット30bの制御量と、撮像装置21,22の画像上におけるメスコネクタ2bの状態の変化量との関係を示す。   Control device 50 acquires change information for each of male connector 2a and female connector 2b. The change information corresponding to the male connector 2a indicates the relationship between the control amount of the robot 30a and the change amount of the state of the male connector 2a on the images of the imaging devices 21 and 22. The change information corresponding to the female connector 2b indicates the relationship between the control amount of the robot 30b and the change amount of the state of the female connector 2b on the images of the imaging devices 21 and 22.

制御装置50は、撮像装置21,22によって撮像された実画像を取得する第1処理と、第1CG動画および第2CG動画から目標フレームを選択する第2処理と、実画像と目標フレームとに基づいてロボット30a,30bの各々を制御する第3処理とを行なう。制御装置50は、オスコネクタ2aに対応する変化情報に基づいて、実画像上のオスコネクタ2aの状態を目標フレーム上のオスコネクタモデル2a’の状態に近づけるためのロボット30aの制御量を算出し、算出した制御量に従ってロボット30aを制御する。制御装置50は、メスコネクタ2bに対応する変化情報に基づいて、実画像上のメスコネクタ2bの状態を目標フレーム上のメスコネクタモデル2b’の状態に近づけるためのロボット30bの制御量を算出し、算出した制御量に従ってロボット30bを制御する。   The control device 50 is configured to perform a first process of acquiring a real image captured by the imaging devices 21 and 22, a second process of selecting a target frame from the first CG video and the second CG video, and a process based on the real image and the target frame. And a third process for controlling each of the robots 30a and 30b. The control device 50 calculates a control amount of the robot 30a for bringing the state of the male connector 2a on the real image closer to the state of the male connector model 2a 'on the target frame, based on the change information corresponding to the male connector 2a. The robot 30a is controlled according to the calculated control amount. The control device 50 calculates a control amount of the robot 30b for bringing the state of the female connector 2b on the actual image closer to the state of the female connector model 2b 'on the target frame based on the change information corresponding to the female connector 2b. The robot 30b is controlled according to the calculated control amount.

これにより、実画像上のオスコネクタ2aおよびメスコネクタ2bの状態を目標フレーム上のオスコネクタモデル2a’およびメスコネクタモデル2b’の状態までそれぞれ変化させることができる。つまり、オスコネクタ2aおよびメスコネクタ2bの状態は、目標フレームに従って連係して変化する。   Thereby, the states of the male connector 2a and the female connector 2b on the actual image can be changed to the states of the male connector model 2a 'and the female connector model 2b' on the target frame, respectively. That is, the states of the male connector 2a and the female connector 2b change in conjunction with each other according to the target frame.

制御装置50は、第1から第3処理を含む一連処理を繰り返し実行し、第3処理を行なっている間に次の一連処理の第1処理を開始する。これにより、ロボット30a,30bの動作を停止させることなく、最新の実画像に応じてロボット30a,30bが制御され続ける。その結果、オスコネクタ2aおよびメスコネクタ2bの状態を速く変化させることができる。   The control device 50 repeatedly executes a series of processes including the first to third processes, and starts the first process of the next series of processes while performing the third process. Thereby, the robots 30a and 30b are continuously controlled according to the latest actual image without stopping the operations of the robots 30a and 30b. As a result, the states of the male connector 2a and the female connector 2b can be changed quickly.

<D.変形例>
<D−1.変形例1>
図14は、メスコネクタの設計データと、当該設計データに従って製造されたメスコネクタとの寸法を示す図である。一般に、製造条件によって、製造品の寸法が設計データからずれ、製造誤差が発生することがある。図14に示す例では、挿入孔7の位置が切欠き部8から遠ざかる方向にずれる傾向の製造誤差(系統誤差)が示される。
<D. Modification>
<D-1. Modification 1>
FIG. 14 is a diagram showing the design data of the female connector and the dimensions of the female connector manufactured according to the design data. In general, depending on manufacturing conditions, dimensions of a manufactured product may deviate from design data, and a manufacturing error may occur. In the example shown in FIG. 14, a manufacturing error (systematic error) in which the position of the insertion hole 7 tends to shift in a direction away from the notch 8 is shown.

上記の説明では、実画像上のメスコネクタ2bの状態が目標フレーム上のメスコネクタモデル2b’の状態に近づくように、ロボット30bが制御される。目標フレームは、設計データに基づいて生成された第1GC動画および第2CG動画から選択される。そのため、図14に示されるような製造誤差が生じている場合、第1CG動画および第2CG動画に従ってオスコネクタ2aおよびメスコネクタ2bの状態を変化させると、オスコネクタ2aのピン(図示せず)がメスコネクタ2bの挿入孔7に挿入できない可能性がある。   In the above description, the robot 30b is controlled such that the state of the female connector 2b on the actual image approaches the state of the female connector model 2b 'on the target frame. The target frame is selected from the first GC moving image and the second CG moving image generated based on the design data. Therefore, when a manufacturing error as shown in FIG. 14 occurs, when the states of the male connector 2a and the female connector 2b are changed according to the first CG moving image and the second CG moving image, the pins (not shown) of the male connector 2a are changed. There is a possibility that the connector cannot be inserted into the insertion hole 7 of the female connector 2b.

変形例1に係る制御システムでは、算出部60によって算出された制御量を製造誤差に応じたオフセット量だけ調整する。指令部61は、調整後の制御量だけ対象ロボットを移動させるための制御指令を生成し、生成した制御指令を対象ロボットコントローラに出力する。これにより、製造誤差が生じていたとしても、オスコネクタ2aのピンをメスコネクタ2bの挿入孔7に挿入させることができる。   In the control system according to the first modification, the control amount calculated by the calculation unit 60 is adjusted by an offset amount according to a manufacturing error. The command unit 61 generates a control command for moving the target robot by the adjusted control amount, and outputs the generated control command to the target robot controller. Thus, even if a manufacturing error occurs, the pins of the male connector 2a can be inserted into the insertion holes 7 of the female connector 2b.

図15は、変形例1に係る制御システムの概要を示す模式図である。図15に示されるように、変形例1に係る制御システム1Aは、図1に示す制御システム1と比較して、力覚センサ32をさらに備えるとともに、制御装置50の代わりに制御装置50Aを備える点で相違する。   FIG. 15 is a schematic diagram illustrating an outline of a control system according to the first modification. As shown in FIG. 15, the control system 1A according to the modification 1 further includes a force sensor 32 and a control device 50A instead of the control device 50, as compared with the control system 1 shown in FIG. Differs in that

力覚センサ32は、オスコネクタ2aおよびメスコネクタ2bの一方が他方から受ける力を検出する。図15に示す例では、力覚センサ32は、オスコネクタ2aがメスコネクタ2bから受ける力を検出するように、ロボット30aのアームとハンド31aとの間に取り付けられている。   Force sensor 32 detects a force that one of male connector 2a and female connector 2b receives from the other. In the example shown in FIG. 15, the force sensor 32 is attached between the arm of the robot 30a and the hand 31a so as to detect the force that the male connector 2a receives from the female connector 2b.

制御装置50Aは、制御装置50と同様に、図4に示されるようなハードウェア構成を有する。そのため、制御装置50Aのハードウェア構成の詳細な説明を省略する。   The control device 50A has a hardware configuration as shown in FIG. Therefore, detailed description of the hardware configuration of the control device 50A is omitted.

図16は、変形例1に係る制御装置の機能構成を示すブロック図である。図16に示されるように、制御装置50Aは、図5に示す制御装置50と比較して、第1制御部57aおよび第2制御部57bの代わりに第1制御部157aおよび第2制御部157bをそれぞれ備え、かつ、オフセット量決定部63をさらに備える点で相違する。   FIG. 16 is a block diagram illustrating a functional configuration of a control device according to the first modification. As shown in FIG. 16, the control device 50A is different from the control device 50 shown in FIG. 5 in that a first control unit 157a and a second control unit 157b are used instead of the first control unit 57a and the second control unit 57b. And an offset amount determination unit 63 is further provided.

オフセット量決定部63は、第1制御部157aおよび第2制御部157bの少なくとも一方の算出部60によって算出される制御量を調整するためのオフセット量(「調整量」ともいう)を決定する。変形例1では、オフセット量決定部63は、第2制御部57bの算出部60によって算出される制御量を調整するためのオフセット量を決定し、決定したオフセット量を第2制御部157bに出力する。   The offset amount determination unit 63 determines an offset amount (also referred to as an “adjustment amount”) for adjusting the control amount calculated by the calculation unit 60 of at least one of the first control unit 157a and the second control unit 157b. In the first modification, the offset amount determination unit 63 determines an offset amount for adjusting the control amount calculated by the calculation unit 60 of the second control unit 57b, and outputs the determined offset amount to the second control unit 157b. I do.

オフセット量決定部63は、力覚センサ32によって検知される力が極小となるメスコネクタ2bの状態を探索し、探索されたメスコネクタ2bの状態に基づいてオフセット量を決定する。力覚センサ32によって検知される力が極小であるとき、オスコネクタ2aとメスコネクタ2bとが接合する際の抵抗が極小となる。このとき、オスコネクタ2aのピンとメスコネクタ2bの挿入孔7との相対的な位置ずれも極小となる。   The offset amount determination unit 63 searches for the state of the female connector 2b at which the force detected by the force sensor 32 is minimal, and determines the offset amount based on the searched state of the female connector 2b. When the force detected by the force sensor 32 is minimal, the resistance when the male connector 2a and the female connector 2b are joined is minimal. At this time, the relative displacement between the pins of the male connector 2a and the insertion holes 7 of the female connector 2b is also minimized.

オフセット量決定部63は、第2制御部57bの制御対象であるロボット30bにおける3自由度の各々のオフセット量を決定する。具体的には、オフセット量決定部63は、ステージ31bのX方向の並進自由度のオフセット量ΔXと、ステージ31bのY方向の並進自由度のオフセット量ΔYと、ステージ31bの回転自由度のオフセット量Δθとを決定する。   The offset amount determining unit 63 determines each offset amount of the three degrees of freedom in the robot 30b to be controlled by the second control unit 57b. Specifically, the offset amount determination unit 63 includes an offset amount ΔX of the translational degree of freedom of the stage 31b in the X direction, an offset amount ΔY of the degree of translational freedom of the stage 31b in the Y direction, and an offset amount of the rotational degree of freedom of the stage 31b. Determine the quantity Δθ.

図17は、変形例1における第1制御部および第2制御部の機能構成を示すブロック図である。図17に示されるように、第1制御部157aおよび第2制御部157bの各々は、図7に示す第1制御部57aおよび第2制御部57bと比較して、指令部61の代わりに指令部161を備える点で相違する。   FIG. 17 is a block diagram illustrating a functional configuration of the first control unit and the second control unit according to the first modification. As shown in FIG. 17, each of first control unit 157a and second control unit 157b is different from first control unit 57a and second control unit 57b shown in FIG. The difference is that a unit 161 is provided.

指令部161は、オフセット量決定部63からオフセット量を受けた場合、算出部60によって算出された制御量に対してオフセット量を加算することにより、当該制御量を調整する。指令部161は、調整後の制御量だけロボット30bを移動させるための制御指令を生成し、生成した制御指令をロボットコントローラ40bに出力する。なお、指令部161は、オフセット量決定部63からオフセット量を受けない場合、上記の指令部61と同様に、算出部60によって算出された制御量だけロボット30bを移動させるための制御指令を生成し、生成した制御指令をロボットコントローラ40bに出力する。   When receiving the offset amount from the offset amount determination unit 63, the command unit 161 adjusts the control amount by adding the offset amount to the control amount calculated by the calculation unit 60. The command unit 161 generates a control command for moving the robot 30b by the adjusted control amount, and outputs the generated control command to the robot controller 40b. When the command unit 161 does not receive the offset amount from the offset amount determination unit 63, similarly to the command unit 61, the command unit 161 generates a control command for moving the robot 30b by the control amount calculated by the calculation unit 60. Then, the generated control command is output to the robot controller 40b.

図18を参照して、変形例1におけるオフセット量の決定処理の流れについて説明する。図18は、変形例1におけるオフセット量の決定処理の流れの一例を示すフローチャートである。   With reference to FIG. 18, a description will be given of a flow of an offset amount determination process in the first modification. FIG. 18 is a flowchart illustrating an example of the flow of an offset amount determination process in the first modification.

図18に示すオフセット量の決定処理は、オスコネクタ2aおよびメスコネクタ2bの少なくとも一方の製造誤差が変動しやすいタイミング(たとえば、オスコネクタ2aおよびメスコネクタ2bの少なくとも一方のロットが変更されたタイミング)ごとに行なわれる。   The offset amount determination process shown in FIG. 18 is performed at a timing at which a manufacturing error of at least one of the male connector 2a and the female connector 2b tends to fluctuate (for example, a timing at which at least one lot of the male connector 2a and the female connector 2b is changed). It is performed every time.

まずステップS31において、オフセット量決定部63は、(ΔX,ΔY,Δθ)=(0,0,0)を、オフセット量の現在の解として設定し、設定した現在の解を第2制御部157bに出力する。   First, in step S31, the offset amount determination unit 63 sets (ΔX, ΔY, Δθ) = (0, 0, 0) as the current solution of the offset amount, and sets the set current solution to the second control unit 157b. Output to

ステップS32において、制御装置50Aは、図10に示す一連のステップS1〜S6をステップS1でYESとなるまで繰り返し行なう。このとき、(ΔX,ΔY,Δθ)=(0,0,0)に従ったロボット制御が行なわれる。すなわち、ステップS6のサブルーチンを示す図13のステップS25において、第1制御部157aおよび第2制御部157bの指令部161は、算出部60によって算出された制御量だけロボット30bを移動させるための制御指令を生成し、生成した制御指令をロボットコントローラ40bに出力する。   In step S32, control device 50A repeatedly performs a series of steps S1 to S6 shown in FIG. 10 until YES is obtained in step S1. At this time, robot control according to (ΔX, ΔY, Δθ) = (0, 0, 0) is performed. That is, in step S25 of FIG. 13 showing the subroutine of step S6, the command unit 161 of the first control unit 157a and the second control unit 157b performs control for moving the robot 30b by the control amount calculated by the calculation unit 60. A command is generated, and the generated control command is output to the robot controller 40b.

ステップS33において、オフセット量決定部63は、ステップS32の処理中における力覚センサ32の検出値を取得する。当該検出値は、たとえば、ステップS32の処理中に力覚センサ32によって検出された力の平均値または最大値である。   In step S33, the offset amount determination unit 63 acquires the detection value of the force sensor 32 during the processing in step S32. The detection value is, for example, an average value or a maximum value of the force detected by the force sensor 32 during the process of step S32.

ステップS34において、オフセット量決定部63は、現在の解の近傍解の1つを選択し、選択した近傍解を第2制御部157bに出力する。(ΔX,ΔY,Δθ)=(X0,Y0,θ0)を現在の解とするとき、(ΔX,ΔY,Δθ)=(X0+a1,Y0,θ0),(X0−a1,Y0,θ0),(X0,Y0+a1,θ0),(X0,Y0−a1,θ0),(X0,Y0,θ0+a2),(X0,Y0,θ0−a2)の6通りを近傍解とする。a1は、ステージ31bの並進自由度の単位制御量を示す。a2は、ステージ31bの回転自由度の単位制御量を示す。   In step S34, the offset amount determining unit 63 selects one of the neighboring solutions of the current solution, and outputs the selected neighboring solution to the second control unit 157b. When (ΔX, ΔY, Δθ) = (X0, Y0, θ0) is the current solution, (ΔX, ΔY, Δθ) = (X0 + a1, Y0, θ0), (X0−a1, Y0, θ0), ( X0, Y0 + a1, θ0), (X0, Y0-a1, θ0), (X0, Y0, θ0 + a2), and (X0, Y0, θ0-a2) are taken as the neighborhood solutions. a1 indicates a unit control amount of the degree of freedom of translation of the stage 31b. a2 indicates a unit control amount of the degree of freedom of rotation of the stage 31b.

ステップS35において、制御装置50Aは、図10に示す一連のステップS1〜S6をステップS1でYESとなるまで繰り返し行なう。このとき、ステップS34で選択された近傍解に従ってロボット制御される。すなわち、第2制御部157bの指令部161は、算出部60によって算出された制御量に近傍解で示されるオフセット量だけ加算することにより、当該制御量を調整する。第1制御部157aの指令部161は、オフセット量を受けていないため、算出部60によって算出された制御量の調整を行なわない。   In step S35, control device 50A repeatedly performs a series of steps S1 to S6 shown in FIG. 10 until YES is obtained in step S1. At this time, the robot is controlled according to the neighborhood solution selected in step S34. That is, the command unit 161 of the second control unit 157b adjusts the control amount by adding the offset amount indicated by the neighborhood solution to the control amount calculated by the calculation unit 60. The command unit 161 of the first control unit 157a does not adjust the control amount calculated by the calculation unit 60 because it has not received the offset amount.

ステップS36において、オフセット量決定部63は、ステップS35の処理中における力覚センサ32の検出値を取得する。   In step S36, the offset amount determination unit 63 acquires the detection value of the force sensor 32 during the processing in step S35.

ステップS37において、オフセット量決定部63は、未選択の近傍解があるか否かを判定する。未選択の近傍解がある場合(ステップS37でYES)、オフセット量の決定処理は、ステップS34に戻る。これにより、未選択の近傍解についても力覚センサ32の検出値を取得できる。   In step S37, the offset amount determination unit 63 determines whether there is an unselected neighboring solution. If there is an unselected neighborhood solution (YES in step S37), the offset amount determination process returns to step S34. As a result, the detection value of the force sensor 32 can be obtained even for an unselected neighborhood solution.

未選択の近傍解がない場合(ステップS37でNO)、ステップS38において、オフセット量決定部63は、現在の解に対応する検出値が極小であるか否かを判定する。具体的には、オフセット量決定部63は、現在の解に対応する検出値がステップS36で取得した全ての検出値(全ての近傍解の各々に対応する検出値)よりも小さい場合に、現在の解に対応する検出値が極小であると判定する。   If there is no unselected neighborhood solution (NO in step S37), in step S38, the offset amount determination unit 63 determines whether the detection value corresponding to the current solution is minimal. Specifically, when the detected value corresponding to the current solution is smaller than all the detected values (detected values corresponding to all of the neighboring solutions) acquired in step S36, the offset amount determination unit 63 sets the current It is determined that the detection value corresponding to the solution is minimal.

現在の解に対応する検出値が極小でない場合(ステップS38でNO)、ステップS39において、オフセット量決定部63は、検出値が最小である近傍解を現在の解に設定する。ステップS39の後、オフセット量の決定処理はステップS34に戻る。   If the detection value corresponding to the current solution is not the minimum (NO in step S38), in step S39, the offset amount determination unit 63 sets the nearby solution having the minimum detection value as the current solution. After step S39, the process of determining the offset amount returns to step S34.

現在の解に対応する検出値が極小である場合(ステップS38でYES)、ステップS40において、オフセット量決定部63は、オフセット量の現在の解を維持し、当該現在の解を第2制御部157bに出力する。ステップS40の後、オフセット量の決定処理は終了する。   If the detection value corresponding to the current solution is minimal (YES in step S38), in step S40, the offset amount determination unit 63 maintains the current solution of the offset amount and sets the current solution to the second control unit. 157b. After step S40, the offset amount determination processing ends.

なお、オフセット量決定部63は、オスコネクタ2aおよびメスコネクタ2bの異なる複数のペアの各々に対して、ステップS31〜S40を実行してオフセット量を求め、それらの平均値を算出してもよい。   Note that the offset amount determination unit 63 may execute steps S31 to S40 for each of a plurality of different pairs of the male connector 2a and the female connector 2b to obtain an offset amount, and calculate an average value thereof. .

図18に示すフローチャートによれば、ステップS32およびステップS33において、第1CG動画および第2CG動画で示されるメスコネクタモデル2b’の状態にメスコネクタ2bの状態を合わせたときの、力覚センサ32の検出値が取得される。その後、ステップS34〜S39が繰り返されることにより、力覚センサ32の検出値が極小となるメスコネクタ2bの状態が探索される。そして、メスコネクタモデル2b’の状態から、探索されたメスコネクタ2bの状態への変化量が最終的なオフセット量として維持される。   According to the flowchart shown in FIG. 18, when the state of the female connector 2b is matched with the state of the female connector model 2b 'shown in the first CG moving image and the second CG moving image in steps S32 and S33, A detection value is obtained. After that, by repeating steps S34 to S39, the state of the female connector 2b at which the detection value of the force sensor 32 is minimized is searched for. Then, the amount of change from the state of the female connector model 2b 'to the searched state of the female connector 2b is maintained as the final offset amount.

オスコネクタ2aおよびメスコネクタ2bが設計データ通りに製造されている場合、第1CG動画および第2CG動画で示されるメスコネクタモデル2b’の状態にメスコネクタ2bの状態を合わせることにより、力覚センサ32の検出値が最小となる。   When the male connector 2a and the female connector 2b are manufactured according to the design data, by adjusting the state of the female connector 2b to the state of the female connector model 2b 'shown in the first CG moving image and the second CG moving image, the force sensor 32 Is minimum.

しかしながら、オスコネクタ2aおよびメスコネクタ2bの少なくとも一方に製造誤差が生じた場合、当該製造誤差に応じて、オスコネクタ2aのピンとメスコネクタ2bの挿入孔7との相対位置にずれが生じ得る。その結果、オスコネクタ2aとメスコネクタ2bとの間に意図しない抵抗力(摩擦力を含む)が発生し、力覚センサ32の検出値が大きくなる。   However, when a manufacturing error occurs in at least one of the male connector 2a and the female connector 2b, the relative position between the pin of the male connector 2a and the insertion hole 7 of the female connector 2b may be shifted according to the manufacturing error. As a result, an unintended resistance force (including frictional force) is generated between the male connector 2a and the female connector 2b, and the detection value of the force sensor 32 increases.

上記のように、ステップS40で維持されるオフセット量は、メスコネクタモデル2b’の状態から、力覚センサ32の検出値が極小となるメスコネクタ2bの状態への変化量である。当該変化量は、オスコネクタ2aのピンとメスコネクタ2bの挿入孔7との相対的な位置ずれ量に相当する。当該位置ずれ量は、オスコネクタ2aおよびメスコネクタ2bの少なくとも一方の製造誤差に応じた量である。すなわち、力覚センサ32の検出値が極小となるオフセット量は、オスコネクタ2aおよびメスコネクタ2bの少なくとも一方の製造誤差に応じた量であり、オスコネクタ2aのピンとメスコネクタ2bの挿入孔7との相対的な位置ずれ量を示す。   As described above, the offset amount maintained in step S40 is the amount of change from the state of the female connector model 2b 'to the state of the female connector 2b at which the detection value of the force sensor 32 is minimal. The change amount corresponds to a relative displacement amount between the pin of the male connector 2a and the insertion hole 7 of the female connector 2b. The displacement is an amount corresponding to a manufacturing error of at least one of the male connector 2a and the female connector 2b. That is, the offset amount at which the detection value of the force sensor 32 becomes a minimum is an amount corresponding to a manufacturing error of at least one of the male connector 2a and the female connector 2b, and the pin of the male connector 2a is inserted into the insertion hole 7 of the female connector 2b. Shows the relative positional shift amount.

変形例1によれば、製造誤差が生じていたとしても、オスコネクタ2aのピンをメスコネクタ2bの挿入孔7に挿入させることができる。   According to the first modification, even if a manufacturing error occurs, the pins of the male connector 2a can be inserted into the insertion holes 7 of the female connector 2b.

なお、上記の説明では、オフセット量決定部63は、第2制御部57bの算出部60によって算出される制御量を調整するためのオフセット量を決定したが、第1制御部57aの算出部60によって算出される制御量を調整するためのオフセット量を決定してもよい。   In the above description, the offset amount determination unit 63 determines the offset amount for adjusting the control amount calculated by the calculation unit 60 of the second control unit 57b. An offset amount for adjusting the control amount calculated by the above may be determined.

<D−2.変形例2>
上記の変形例1において、オフセット量決定部63は、入力装置534(図4参照)からオフセット量を取得してもよい。操作者は、オスコネクタ2aおよびメスコネクタ2bの設計データに対する系統誤差を計測し、当該系統誤差に応じたオフセット量を入力装置534に入力すればよい。
<D-2. Modification 2>
In the first modification, the offset amount determination unit 63 may acquire the offset amount from the input device 534 (see FIG. 4). The operator may measure a systematic error with respect to the design data of the male connector 2a and the female connector 2b, and input an offset amount corresponding to the systematic error to the input device 534.

なお、操作者は、第1制御部57aの算出部60によって算出される制御量を調整するためのオフセット量と、第2制御部57bの算出部60によって算出される制御量を調整するためのオフセット量との少なくとも一方を入力装置534に入力する。   In addition, the operator adjusts the control amount calculated by the calculation unit 60 of the first control unit 57a and the offset amount for adjusting the control amount calculated by the calculation unit 60 of the second control unit 57b. At least one of the offset amounts is input to the input device 534.

たとえば、操作者は、オスコネクタ2aの系統誤差に基づいて、第1制御部57aの算出部60によって算出される制御量を調整するためのオフセット量を入力する。さらに、操作者は、メスコネクタ2bの系統誤差に基づいて、第2制御部57bの算出部60によって算出される制御量を調整するためのオフセット量を入力する。   For example, the operator inputs an offset amount for adjusting the control amount calculated by the calculation unit 60 of the first control unit 57a based on the systematic error of the male connector 2a. Further, the operator inputs an offset amount for adjusting the control amount calculated by the calculator 60 of the second controller 57b based on the systematic error of the female connector 2b.

もしくは、操作者は、オスコネクタ2aおよびメスコネクタ2bの系統誤差からオスコネクタ2aのピンとメスコネクタ2bの挿入孔7との相対的な位置ずれ量を求める。操作者は、当該位置ずれ量に応じて、第1制御部57aまたは第2制御部57bの算出部60によって算出される制御量を調整するためのオフセット量を入力してもよい。   Alternatively, the operator obtains the relative displacement between the pin of the male connector 2a and the insertion hole 7 of the female connector 2b from the systematic error of the male connector 2a and the female connector 2b. The operator may input an offset amount for adjusting the control amount calculated by the calculation unit 60 of the first control unit 57a or the second control unit 57b according to the position shift amount.

<D−3.変形例3>
変形例3に係る制御システムは、変形例1に係る制御システム1Aと比較して、制御装置50Aの代わりに、図19に示されるような機能構成を有する制御装置50Bを備える点で相違する。変形例3に係る制御装置50Bは、制御装置50と同様に、図4に示されるようなハードウェア構成を有する。そのため、制御装置50Bのハードウェア構成の詳細な説明を省略する。
<D-3. Modification 3>
The control system according to the third modification differs from the control system 1A according to the first modification in that a control device 50B having a functional configuration as shown in FIG. 19 is provided instead of the control device 50A. The control device 50B according to the third modification has a hardware configuration as shown in FIG. Therefore, a detailed description of the hardware configuration of the control device 50B will be omitted.

図19は、変形例3に係る制御装置の機能構成を示すブロック図である。図19に示されるように、制御装置50Bは、図16に示す制御装置50Aと比較して、教示範囲選択部54、画像処理部55、目標フレーム選択部56、第1制御部157aおよび第2制御部157bの代わりに教示範囲選択部254、画像処理部255、目標フレーム選択部256、第1制御部257aおよび第2制御部257bを備え、さらに基準動画生成部64を備える点で相違する。   FIG. 19 is a block diagram illustrating a functional configuration of a control device according to the third modification. As shown in FIG. 19, the control device 50B is different from the control device 50A shown in FIG. 16 in that the teaching range selecting unit 54, the image processing unit 55, the target frame selecting unit 56, the first control unit 157a, and the second The difference is that a teaching range selection unit 254, an image processing unit 255, a target frame selection unit 256, a first control unit 257a, and a second control unit 257b are provided instead of the control unit 157b, and a reference moving image generation unit 64 is further provided.

制御装置50Bは、第1CG動画および第2CG動画を用いてロボット30a,30bを制御する第1モードと、第1CG動画および第2CG動画の代わりに第1基準動画および第2基準動画を用いてロボット30a,30bを制御する第2モードとを有する。   The control device 50B controls the robot 30a, 30b using the first CG moving image and the second CG moving image, and uses the first reference moving image and the second reference moving image instead of the first CG moving image and the second CG moving image. And a second mode for controlling 30a and 30b.

制御装置50Bは、第1モードにおいて、図18に示すフローチャートで示される処理を行ない、力覚センサ32の検出値が極小となるオフセット量の解を求める。   In the first mode, the control device 50B performs the processing shown in the flowchart of FIG. 18 and obtains the solution of the offset amount at which the detection value of the force sensor 32 is minimized.

基準動画生成部64は、図18に示すステップS33およびステップS35の各々の際に撮像装置21から撮像周期ごとに取得した複数の画像からなる画像セットを記憶しておく。基準動画生成部64は、力覚センサ32の検出値が極小となるオフセット量の解に対応する画像セットを読み出し、読み出した画像セットに含まれる複数の画像の各々をフレームとする第1基準動画を生成する。   The reference moving image generation unit 64 stores an image set including a plurality of images acquired for each imaging cycle from the imaging device 21 in each of steps S33 and S35 shown in FIG. The reference moving image generation unit 64 reads an image set corresponding to the solution of the offset amount at which the detection value of the force sensor 32 is minimized, and sets a first reference moving image having each of a plurality of images included in the read image set as a frame. Generate

同様に、基準動画生成部64は、ステップS33およびステップS35の各々の際に撮像装置22から撮像周期ごとに取得した複数の画像からなる画像セットを記憶しておく。基準動画生成部64は、力覚センサ32の検出値が極小となるオフセット量の解に対応する画像セットを読み出し、読み出した画像セットに含まれる複数の画像の各々をフレームとする第2基準動画を生成する。   Similarly, the reference moving image generation unit 64 stores an image set including a plurality of images acquired for each imaging cycle from the imaging device 22 in each of step S33 and step S35. The reference moving image generation unit 64 reads an image set corresponding to the solution of the offset amount at which the detection value of the force sensor 32 is minimal, and sets a second reference moving image having each of a plurality of images included in the read image set as a frame. Generate

基準動画生成部64は、生成した第1基準動画および第2基準動画を動画記憶部51に格納する。第1基準動画のk番目(kは1〜Qのいずれかの整数)のフレームと第2基準動画のk番目のフレームとは、同じ撮像周期に撮像装置21,22によってそれぞれ撮像された画像である。   The reference moving image generation unit 64 stores the generated first reference moving image and the second reference moving image in the moving image storage unit 51. The k-th frame of the first reference moving image (k is an integer from 1 to Q) and the k-th frame of the second reference moving image are images captured by the imaging devices 21 and 22 in the same imaging cycle. is there.

制御装置50Bは、動画記憶部51に第1基準動画および第2基準動画が格納されると、第2モードに従ってロボット30a,30bを制御する。   When the first reference moving image and the second reference moving image are stored in the moving image storage unit 51, the control device 50B controls the robots 30a and 30b according to the second mode.

教示範囲選択部254は、図5および図16に示す教示範囲選択部54の処理に加えて、対象物(オスコネクタ2aおよびメスコネクタ2b)ごとに、第1基準動画および第2基準動画から教示範囲を選択する。教示範囲選択部254は、第1CG動画および第2CG動画から教示範囲を選択する方法と同じ方法によって、第1基準動画および第2基準動画から対象物ごとの教示範囲を選択すればよい。   The teaching range selection unit 254 performs the teaching from the first reference moving image and the second reference moving image for each object (the male connector 2a and the female connector 2b) in addition to the processing of the teaching range selection unit 54 illustrated in FIGS. Select a range. The teaching range selection unit 254 may select the teaching range for each object from the first reference moving image and the second reference moving image by the same method as that for selecting the teaching range from the first CG moving image and the second CG moving image.

画像処理部255は、図5および図16に示す画像処理部55と同様に、対象画像に対して画像処理を行ない、テンプレートマッチングを用いて、対象画像中から対象物を検出する。ただし、画像処理部255が画像処理を行なう対象画像には、第1CG動画のフレーム、第2CG動画のフレームおよび撮像装置21,22によって撮像された実画像の他に、第1基準動画のフレームおよび第2基準動画のフレームが含まれる。   The image processing unit 255 performs image processing on the target image and detects the target from the target image using template matching, similarly to the image processing unit 55 illustrated in FIGS. 5 and 16. However, in addition to the frames of the first CG moving image, the frames of the second CG moving image, and the real images captured by the imaging devices 21 and 22, the target image on which the image processing unit 255 performs the image processing includes a frame of the first reference moving image and a frame of the first reference moving image. A frame of the second reference moving image is included.

目標フレーム選択部256は、第1モードにおいて、図5および図16に示す目標フレーム選択部56と同様に、第1CG動画および第2CG動画の各々から目標フレームを選択する。   The target frame selection unit 256 selects a target frame from each of the first CG moving image and the second CG moving image in the first mode, similarly to the target frame selection unit 56 illustrated in FIGS. 5 and 16.

目標フレーム選択部256は、第2モードにおいて、動画記憶部51に格納された第1基準動画および第2基準動画の各々から目標フレームを選択する。目標フレーム選択部256は、図11に示すフローに従って、第1基準動画および第2基準動画の各々から目標フレームを選択すればよい。ただし、目標フレーム選択部256は、図11のステップS11において、第1基準動画および第2基準動画の各フレームから抽出された全ての対象物の特徴点の座標を画像処理部255から取得する。   The target frame selection unit 256 selects a target frame from each of the first reference moving image and the second reference moving image stored in the moving image storage unit 51 in the second mode. The target frame selection unit 256 may select a target frame from each of the first reference moving image and the second reference moving image according to the flow illustrated in FIG. However, the target frame selection unit 256 acquires, from the image processing unit 255, the coordinates of the feature points of all the objects extracted from each frame of the first reference moving image and the second reference moving image in step S11 of FIG.

図20は、変形例3における第1制御部および第2制御部の機能構成を示すブロック図である。図20に示されるように、第1制御部257aおよび第2制御部157bの各々は、図17に示す第1制御部157aおよび第2制御部157bと比較して、変化情報生成部58、算出部60および指令部161の代わりに変化情報生成部258、算出部260および指令部261を備える点で相違する。   FIG. 20 is a block diagram illustrating a functional configuration of the first control unit and the second control unit according to the third modification. As shown in FIG. 20, each of the first control unit 257a and the second control unit 157b is different from the first control unit 157a and the second control unit 157b shown in FIG. The difference is that a change information generating unit 258, a calculating unit 260, and a command unit 261 are provided instead of the unit 60 and the command unit 161.

変化情報生成部258は、図7に示す変化情報生成部58と同様に、第1CG動画の教示範囲の各フレームに対して第1変化情報セット591を生成し、第2CG動画の教示範囲の各フレームに対して第2変化情報セット592を生成する。   The change information generation unit 258 generates the first change information set 591 for each frame in the teaching range of the first CG moving image, and generates each of the teaching ranges of the second CG moving image in the same manner as the change information generation unit 58 illustrated in FIG. A second change information set 592 is generated for the frame.

さらに、変化情報生成部258は、第1基準動画の教示範囲の各フレームに対して第3変化情報セット593を生成し、第2基準動画の教示範囲の各フレームに対して第4変化情報セット594を生成する。   Further, the change information generation unit 258 generates a third change information set 593 for each frame in the teaching range of the first reference moving image, and generates a fourth change information set for each frame in the teaching range of the second reference moving image. 594 is generated.

変化情報生成部258は、第1基準動画および第2基準動画の各フレームから抽出された対象物(オスコネクタ2aまたはメスコネクタ2b)の特徴点の座標を画像処理部255から取得する。変化情報生成部258は、第1CG動画および第2CG動画の各フレームから抽出された対象物のモデル(オスコネクタモデル2a’およびメスコネクタモデル2b’)の特徴点の座標を画像処理部255から取得する。   The change information generation unit 258 acquires from the image processing unit 255 the coordinates of the feature points of the target object (the male connector 2a or the female connector 2b) extracted from each frame of the first reference moving image and the second reference moving image. The change information generation unit 258 acquires from the image processing unit 255 the coordinates of the feature points of the object models (the male connector model 2a 'and the female connector model 2b') extracted from each frame of the first CG moving image and the second CG moving image. I do.

変化情報生成部258は、第1基準動画のi番目のフレームについて、当該i番目のフレームおよび第1CG動画のj番目(jは1〜Mの整数)のフレームから抽出された対応する特徴点同士の偏差(たとえば距離の平均)を算出する。変化情報生成部258は、偏差が最小となるjを特定する。変化情報生成部258は、第1基準動画のi番目のフレームに対応する第3変化情報セット593を、第1CG動画における特定したj番目のフレームに対応する第1変化情報セット591と同一の内容とする。   For the i-th frame of the first reference moving image, the change information generating unit 258 sets corresponding feature points extracted from the i-th frame and the j-th (j is an integer of 1 to M) frame of the first CG moving image. (For example, average distance). The change information generation unit 258 specifies j at which the deviation is minimum. The change information generation unit 258 sets the third change information set 593 corresponding to the i-th frame of the first reference moving image to the same content as the first change information set 591 corresponding to the specified j-th frame in the first CG moving image. And

同様に、変化情報生成部258は、第2基準動画のi番目のフレームについて、当該i番目のフレームおよび第2CG動画のj番目(jは1〜Mの整数)のフレームから抽出された対応する特徴点同士の偏差(たとえば距離の平均)を算出する。変化情報生成部258は、偏差が最小となるjを特定する。変化情報生成部258は、第2基準動画のi番目のフレームに対応する第4変化情報セット594を、第2CG動画における特定したj番目のフレームに対応する第2変化情報セット592と同一の内容とする。   Similarly, the change information generating unit 258 determines, for the i-th frame of the second reference moving image, the corresponding extracted from the i-th frame and the j-th frame (j is an integer of 1 to M) of the second CG moving image. The deviation between the feature points (for example, the average of the distances) is calculated. The change information generation unit 258 specifies j at which the deviation is minimum. The change information generation unit 258 sets the fourth change information set 594 corresponding to the i-th frame of the second reference moving image to the same content as the second change information set 592 corresponding to the specified j-th frame in the second CG moving image. And

算出部260は、図7に示す算出部60と同様の処理を行なうことにより、対象ロボットの各自由度の制御量を算出する。算出部260は、第1モードにおいて、目標フレームに対応する第1変化情報セット591および第2変化情報セット592を変化情報記憶部59から読み出し、読み出した第1変化情報セット591および第2変化情報セット592に基づいて制御量を算出する。算出部260は、第2モードにおいて、目標フレームに対応する第3変化情報セット593および第4変化情報セット594を変化情報記憶部59から読み出し、読み出した第3変化情報セット593および第4変化情報セット594に基づいて制御量を算出する。   The calculation unit 260 calculates the control amount of each degree of freedom of the target robot by performing the same processing as the calculation unit 60 illustrated in FIG. In the first mode, the calculating unit 260 reads the first change information set 591 and the second change information set 592 corresponding to the target frame from the change information storage unit 59, and reads the read first change information set 591 and second change information A control amount is calculated based on the set 592. The calculation unit 260 reads the third change information set 593 and the fourth change information set 594 corresponding to the target frame from the change information storage unit 59 in the second mode, and reads the read third change information set 593 and fourth read information A control amount is calculated based on the set 594.

指令部261は、第1モードにおいて、図17に示す指令部161と同様の処理を行なうことにより、対象ロボットコントローラに制御指令を出力する。すなわち、指令部261は、オフセット量決定部63からオフセット量を受けている場合、当該オフセット量を用いて制御量を調整し、調整後の制御量だけ対象ロボットを移動させる制御指令を生成する。   The command section 261 outputs a control command to the target robot controller by performing the same processing as the command section 161 shown in FIG. 17 in the first mode. That is, when receiving the offset amount from the offset amount determining unit 63, the command unit 261 adjusts the control amount using the offset amount and generates a control command to move the target robot by the adjusted control amount.

指令部261は、第2モードにおいて、図7に示す指令部61と同様の処理を行なうことにより、対象ロボットコントローラに制御指令を出力する。すなわち、指令部261は、算出部260から受けた制御量だけ対象ロボットを移動させる制御指令を生成する。   The command section 261 outputs a control command to the target robot controller by performing the same processing as the command section 61 shown in FIG. 7 in the second mode. That is, the command unit 261 generates a control command to move the target robot by the control amount received from the calculation unit 260.

変形例3によれば、制御装置50Bは、第1モードにおいて、算出部260によって算出された制御量をオフセット量だけ調整し、力覚センサ32によって検出された力が極小となるオフセット量を探索する。制御装置50Bは、探索されたオフセット量だけ制御量を調整したときに撮像装置21,22によって撮像された画像を第1,第2基準動画としてそれぞれ取得する。   According to the third modification, in the first mode, the control device 50B adjusts the control amount calculated by the calculation unit 260 by the offset amount, and searches for the offset amount at which the force detected by the force sensor 32 is minimal. I do. The control device 50B acquires images captured by the imaging devices 21 and 22 as the first and second reference moving images when the control amount is adjusted by the searched offset amount.

その後、制御装置50Bは、第2モードに従った処理を行なう。すなわち、制御装置50Bは、第1CG動画および第2CG動画の代わりに第1基準動画および第2基準動画から目標フレームを選択する処理を行なう。   Thereafter, control device 50B performs a process according to the second mode. That is, control device 50B performs a process of selecting a target frame from the first reference moving image and the second reference moving image instead of the first CG moving image and the second CG moving image.

第1基準動画および第2基準動画は、力覚センサ32によって検出された力が極小となるときに撮像された画像である。そのため、変形例3によっても、制御装置50Bが第2モードに従った処理を行なうことにより、製造誤差が生じていたとしても、オスコネクタ2aのピンをメスコネクタ2bの挿入孔7に挿入させることができる。   The first reference moving image and the second reference moving image are images captured when the force detected by the force sensor 32 is minimal. Therefore, according to the third modification, the control device 50B performs the processing according to the second mode so that the pins of the male connector 2a are inserted into the insertion holes 7 of the female connector 2b even if a manufacturing error occurs. Can be.

<D−4.変形例4>
上記の説明では、制御システム1は、オスコネクタ2aとメスコネクタ2bとの接続(組み立て)を行なう。しかしながら、制御システム1は、別の2つの対象物同士を組み立ててもよい。
<D-4. Modification 4>
In the above description, the control system 1 connects (assembles) the male connector 2a and the female connector 2b. However, the control system 1 may assemble another two objects.

図21は、変形例4に係る制御システムの対象物を示す模式図である。変形例4に係る制御システムは、工業製品の生産ラインなどにおいて、ボルト9aを、板状部品9bに形成されたボルト孔13にねじ込む。   FIG. 21 is a schematic diagram illustrating an object of the control system according to the fourth modification. The control system according to Modification 4 screws a bolt 9a into a bolt hole 13 formed in a plate-like component 9b in an industrial product production line or the like.

ボルト9aは、ロボット30aのハンド31a(図1参照)によって把持される。板状部品9bは、ロボット30bのステージ31b上に載置される。   The bolt 9a is gripped by the hand 31a (see FIG. 1) of the robot 30a. The plate-shaped component 9b is placed on the stage 31b of the robot 30b.

<D−5.変形例5>
制御システムに備えられるロボットの個数は、2個に限定されるものではなく、3個以上であってもよい。3個以上の対象物の状態をCG動画に従って連係して変化させる場合には、制御システムは、当該3個以上の対象物の状態をそれぞれ変化させるための3個以上のロボットを備えればよい。この場合、CG動画は、3個以上の対象物のモデルの状態の変化を示す。
<D-5. Modification 5>
The number of robots provided in the control system is not limited to two, and may be three or more. When the states of three or more objects are changed in a coordinated manner according to the CG moving image, the control system may include three or more robots for changing the states of the three or more objects, respectively. . In this case, the CG moving image indicates a change in the state of the model of three or more objects.

図22は、変形例5に係る制御システムの対象物を示す模式図である。変形例5に係る制御システムは、工業製品の生産ラインなどにおいて、円筒部材10e,10fをビス10c,10dで接合させる。   FIG. 22 is a schematic diagram illustrating an object of the control system according to the fifth modification. The control system according to Modification Example 5 joins cylindrical members 10e and 10f with screws 10c and 10d in an industrial product production line or the like.

円筒部材10eにはビス孔11a,11bが形成されている、円筒部材10fにはビス孔12a,12bが形成されている。ビス孔11aとビス孔12aとが重なり合い、ビス孔11bとビス孔12bとが重なり合った状態において、ビス孔11a,12aにビス10cが差し込まれ、ビス孔11b,12bにビス10dが差し込まれる。   Screw holes 11a and 11b are formed in the cylindrical member 10e, and screw holes 12a and 12b are formed in the cylindrical member 10f. With the screw hole 11a and the screw hole 12a overlapping and the screw hole 11b and the screw hole 12b overlapping, the screw 10c is inserted into the screw holes 11a and 12a, and the screw 10d is inserted into the screw holes 11b and 12b.

ビス10cは、第1のロボットのハンドによって把持される。ビス10dは、第2のロボットのハンドによって把持される。円筒部材10eは、第3のロボットのハンドによって把持される。円筒部材10fは、第4のロボットのステージ上に載置される。   The screw 10c is gripped by the hand of the first robot. The screw 10d is gripped by the hand of the second robot. The cylindrical member 10e is gripped by the hand of the third robot. The cylindrical member 10f is mounted on the stage of the fourth robot.

撮像装置21,22は、ビス孔11a,12aとビス10cとを撮像可能な位置に配置される。ただし、撮像装置21,22は、ビス孔11b,12bとビス10dとを撮像できない。そのため、変形例5に係る制御システムは、さらに撮像装置23,24を備える。撮像装置23,24は、ビス孔11b,12bとビス10dとを撮像可能な位置に配置される。   The imaging devices 21 and 22 are arranged at positions where the screw holes 11a and 12a and the screw 10c can be imaged. However, the imaging devices 21 and 22 cannot image the screw holes 11b and 12b and the screw 10d. Therefore, the control system according to Modification 5 further includes imaging devices 23 and 24. The imaging devices 23 and 24 are arranged at positions where the screw holes 11b and 12b and the screw 10d can be imaged.

変形例5の制御装置は、撮像装置21〜24にそれぞれ対応する4つのCG動画を記憶する。   The control device of Modification 5 stores four CG moving images corresponding to the imaging devices 21 to 24, respectively.

変形例5の制御装置は、第1〜第4のロボットにそれぞれ対応する第1〜第4制御部を備えていればよい。第1〜第4制御部の各々は、図7と同様の構成を有する。第1〜第4制御部の各々の変化情報生成部58は、4つのCG動画にそれぞれ対応する4つの変化情報セットを生成すればよい。そして、算出部60は、4つの変化情報セットに基づいて、対象ロボットの各自由度の制御量を算出すればよい。これにより、4つの対象物(円筒部材10e,10fおよびビス10c,10d)の状態をCG動画に従って連係して変化させることができる。   The control device according to Modification 5 may include first to fourth control units respectively corresponding to the first to fourth robots. Each of the first to fourth control units has the same configuration as in FIG. The change information generating units 58 of the first to fourth control units may generate four change information sets respectively corresponding to the four CG moving images. Then, the calculation unit 60 may calculate the control amount of each degree of freedom of the target robot based on the four change information sets. Thus, the states of the four objects (cylindrical members 10e and 10f and screws 10c and 10d) can be changed in a coordinated manner according to the CG moving image.

<D−6.変形例6>
図23を参照して、変形例6に係る制御システムについて説明する。図23は、変形例6に係る制御システムの概要を示す模式図である。変形例6では、複数の対象物のうちの1つが定位置に設置され、撮像装置21,22の状態がロボットによって変化される。
<D-6. Modification 6>
With reference to FIG. 23, a control system according to Modification 6 will be described. FIG. 23 is a schematic diagram illustrating an outline of a control system according to the sixth modification. In the sixth modification, one of the plurality of objects is set at a fixed position, and the state of the imaging devices 21 and 22 is changed by the robot.

変形例6に係る制御システム1Cは、工業製品の生産ラインなどにおいて、加工具14c,14dを用いて、大型部材14eの加工対象部分15,16を順に加工する。大型部材14jは、たとえば、大型装置の筐体、自動車ボディーなどである。加工具14h,14iは、たとえばドリル、電動やすりなどである。   The control system 1C according to Modification 6 sequentially processes the processing target portions 15 and 16 of the large member 14e using the processing tools 14c and 14d in a production line of an industrial product or the like. The large member 14j is, for example, a housing of a large device, an automobile body, or the like. The processing tools 14h and 14i are, for example, a drill, an electric file, or the like.

制御システム1Cは、図1に示す制御システム1と比較して、ロボット30a,30b、ロボットコントローラ40a,40bおよび制御装置50の代わりに、ロボット30c,30d,30e、ロボットコントローラ40c,40d,40eおよび制御装置50Cを備える点で相違する。   The control system 1C is different from the control system 1 shown in FIG. 1 in that instead of the robots 30a, 30b, the robot controllers 40a, 40b, and the control device 50, the robots 30c, 30d, 30e, the robot controllers 40c, 40d, 40e and The difference is that a control device 50C is provided.

ロボット30cは、加工具14cの状態(ここでは位置および姿勢)を変化させるための機構であり、たとえば垂直多関節ロボットである。ロボット30cは、先端に加工具14cを支持するハンド31cを有し、ハンド31cの位置および姿勢を複数の自由度で変化させる。さらに、ロボット30cは、レール34に沿って矢印ARの方向に移動可能な台座33cを含む。   The robot 30c is a mechanism for changing the state (here, position and posture) of the processing tool 14c, and is, for example, a vertical articulated robot. The robot 30c has a hand 31c at its tip for supporting the processing tool 14c, and changes the position and posture of the hand 31c with a plurality of degrees of freedom. Further, the robot 30c includes a pedestal 33c that is movable along the rail 34 in the direction of the arrow AR.

ロボット30dは、加工具14dの状態(ここでは位置および姿勢)を変化させるための機構であり、たとえば垂直多関節ロボットである。ロボット30dは、先端に加工具14dを支持するハンド31dを有し、ハンド31dの位置および姿勢を複数の自由度で変化させる。さらに、ロボット30dは、レール34に沿って矢印ARの方向に移動可能な台座33dを含む。   The robot 30d is a mechanism for changing the state (here, position and posture) of the processing tool 14d, and is, for example, a vertical articulated robot. The robot 30d has a hand 31d that supports the processing tool 14d at its tip, and changes the position and posture of the hand 31d with a plurality of degrees of freedom. Further, the robot 30d includes a pedestal 33d movable along the rail 34 in the direction of the arrow AR.

ロボット30eは、撮像装置21,22の状態(ここでは位置および姿勢)を変化させるための機構であり、たとえば垂直多関節ロボットである。ロボット30eは、先端に撮像装置21,22を支持するハンド31eを有し、ハンド31eの位置および姿勢を複数の自由度で変化させる。さらに、ロボット30eは、レール34に沿って矢印ARの方向に移動可能な台座33eを含む。   The robot 30e is a mechanism for changing the state (here, position and orientation) of the imaging devices 21 and 22, and is, for example, a vertical articulated robot. The robot 30e has a hand 31e that supports the imaging devices 21 and 22 at the tip, and changes the position and orientation of the hand 31e with a plurality of degrees of freedom. Further, the robot 30e includes a pedestal 33e movable along the rail 34 in the direction of the arrow AR.

なお、図23では、台座33c,33d,33eは、共通のレール34に沿って移動するものとした。しかしながら、台座33c,33d,33eごとにレールが設けられており、台座33c,33d,33eの各々は、対応するレールに沿って移動してもよい。   In FIG. 23, the pedestals 33c, 33d, and 33e move along the common rail. However, a rail is provided for each of the pedestals 33c, 33d, and 33e, and each of the pedestals 33c, 33d, and 33e may move along the corresponding rail.

ロボットコントローラ40c、40d,40eは、制御装置50Cから受けた制御指令に従って、ロボット30c,30d,30eの動作制御をそれぞれ行なう。ロボットコントローラ40c、40d,40eは、制御装置50Bからの制御指令に従って、ハンド31c,31d,31eの状態をそれぞれ変化させるとともに、台座33c,33d,33eをそれぞれ移動させる。   The robot controllers 40c, 40d, and 40e perform operation control of the robots 30c, 30d, and 30e, respectively, according to control commands received from the control device 50C. The robot controllers 40c, 40d, and 40e change the states of the hands 31c, 31d, and 31e, respectively, and move the pedestals 33c, 33d, and 33e, respectively, according to a control command from the control device 50B.

制御装置50Cは、実施の形態1と同様に、図4に示されるようなハードウェア構成を有する。そのため、制御装置50Cのハードウェア構成の詳細な説明を省略する。   Control device 50C has a hardware configuration as shown in FIG. 4, as in the first embodiment. Therefore, a detailed description of the hardware configuration of the control device 50C is omitted.

図24は、変形例6に係る制御装置の機能構成を示すブロック図である。図24に示されるように、制御装置50Cは、図5に示す制御装置50と比較して、第1制御部57aおよび第2制御部57bの代わりに第1制御部57c、第2制御部57dおよび第3制御部57eを備える点で相違する。   FIG. 24 is a block diagram illustrating a functional configuration of a control device according to the sixth modification. As shown in FIG. 24, the control device 50C is different from the control device 50 shown in FIG. 5 in that a first control unit 57c and a second control unit 57d are used instead of the first control unit 57a and the second control unit 57b. And a third control unit 57e.

ただし、動画記憶部51は、加工具14c,14dと大型部材14eとの見本を示す第1CG動画および第2CG動画を記憶する。   However, the moving image storage unit 51 stores a first CG moving image and a second CG moving image showing a sample of the processing tools 14c and 14d and the large member 14e.

第1CG動画および第2CG動画は、たとえば、以下のような第1〜第3シーンを順に示す。第1シーンは、加工対象部分15のモデルが画像上の定位置にある状態において、加工具14c,14dのモデルが加工対象部分15のモデルに対して加工するシーンである。第2シーンは、大型部材14eのモデルが画像上で移動し、大型部材14eの加工対象部分16のモデルが画像上の定位置に移動するシーンである。第3シーンは、加工対象部分16のモデルが画像上の定位置にある状態において、加工具14c,14dのモデルが加工対象部分16のモデルに対して加工するシーンである。   The first CG moving image and the second CG moving image sequentially indicate, for example, the following first to third scenes. The first scene is a scene in which the models of the processing tools 14c and 14d process the model of the processing target portion 15 when the model of the processing target portion 15 is at a fixed position on the image. The second scene is a scene in which the model of the large member 14e moves on the image, and the model of the processing target portion 16 of the large member 14e moves to a fixed position on the image. The third scene is a scene in which the models of the processing tools 14c and 14d process the model of the processing target portion 16 when the model of the processing target portion 16 is at a fixed position on the image.

教示範囲選択部54は、加工具14cと加工具14dと大型部材14eとの各々について教示範囲を選択する。   The teaching range selection unit 54 selects a teaching range for each of the processing tool 14c, the processing tool 14d, and the large member 14e.

画像処理部55は、対象画像から加工具14cと加工具14dと大型部材14eとを検出する。なお、大型部材14eのサイズが大きいため、撮像装置21,22の視野には大型部材14eの一部のみが含まれる。そのため、画像処理部55は、大型部材14eの表面に形成された模様を検出する。   The image processing unit 55 detects the processing tool 14c, the processing tool 14d, and the large member 14e from the target image. Since the size of the large member 14e is large, the field of view of the imaging devices 21 and 22 includes only a part of the large member 14e. Therefore, the image processing unit 55 detects a pattern formed on the surface of the large member 14e.

第1制御部57cは、ロボットコントローラ40cを介してロボット30cを制御し、加工具14cの状態を変化させる。   The first control unit 57c controls the robot 30c via the robot controller 40c to change the state of the processing tool 14c.

第2制御部57dは、ロボットコントローラ40dを介してロボット30dを制御し、加工具14cの状態を変化させる。   The second control unit 57d controls the robot 30d via the robot controller 40d to change the state of the processing tool 14c.

第3制御部57eは、ロボットコントローラ40eを介してロボット30eを制御し、撮像装置21,22の状態を変化させる。   The third control unit 57e controls the robot 30e via the robot controller 40e to change the states of the imaging devices 21 and 22.

第1制御部57c、第2制御部57dおよび第3制御部57eの各々は、第1制御部57aおよび第2制御部57bと同様に、変化情報生成部57と、変化情報記憶部59と、算出部60と、指令部61と、終了判定部62とを備える(図7参照)。   Each of the first control unit 57c, the second control unit 57d, and the third control unit 57e includes, like the first control unit 57a and the second control unit 57b, a change information generation unit 57, a change information storage unit 59, It includes a calculation unit 60, a command unit 61, and an end determination unit 62 (see FIG. 7).

ただし、各部における対象物、対象ロボットおよび対象ロボットコントローラは、上記の実施の形態と異なる。対象物は、第1制御部57cでは加工具14cであり、第2制御部57dでは加工具14dであり、第3制御部57eでは大型部材14eである。対象ロボットは、第1制御部57cではロボット30cであり、第2制御部57dではロボット30dであり、第3制御部57eではロボット30eである。対象ロボットコントローラは、第1制御部57cではロボットコントローラ40eであり、第2制御部57dではロボットコントローラ40dであり、第3制御部57eではロボットコントローラ40eである。   However, the target object, the target robot, and the target robot controller in each unit are different from those in the above-described embodiment. The target object is the processing tool 14c in the first control unit 57c, the processing tool 14d in the second control unit 57d, and the large member 14e in the third control unit 57e. The target robot is the robot 30c in the first control unit 57c, the robot 30d in the second control unit 57d, and the robot 30e in the third control unit 57e. The target robot controller is the robot controller 40e in the first controller 57c, the robot controller 40d in the second controller 57d, and the robot controller 40e in the third controller 57e.

第1制御部57cおよび第2制御部57dの変化情報生成部58は、ロボット30eが動作していない状態において、対象ロボットの単位制御量と、撮像装置21によって撮像された実画像上の対象物の状態の変化量との関係を示す第1変化情報を生成する。また、第1制御部57cおよび第2制御部57dの変化情報生成部58は、ロボット30eが動作していない状態において、対象ロボットの単位制御量と、撮像装置22によって撮像された実画像上の対象物の状態の変化量との関係を示す第2変化情報を生成する。   When the robot 30e is not operating, the change information generation unit 58 of the first control unit 57c and the second control unit 57d determines the unit control amount of the target robot and the target object on the real image captured by the imaging device 21. The first change information indicating the relationship with the change amount of the state is generated. Further, the change information generation unit 58 of the first control unit 57c and the second control unit 57d determines the unit control amount of the target robot and the actual control The second change information indicating the relationship with the amount of change in the state of the object is generated.

具体的には、第1制御部57cの変化情報生成部58は、大型部材14eの加工対象部分15が画像上の定位置となる撮像装置21,22の状態において、第1変化情報および第2変化情報を生成する。第2制御部57dの変化情報生成部58は、大型部材14eの加工対象部分16が画像上の定位置となる撮像装置21,22の状態において、第1変化情報および第2変化情報を生成する。   Specifically, the change information generation unit 58 of the first control unit 57c performs the first change information and the second change information in the state of the imaging devices 21 and 22 where the processing target portion 15 of the large member 14e is at a fixed position on the image. Generate change information. The change information generation unit 58 of the second control unit 57d generates the first change information and the second change information in the state of the imaging devices 21 and 22 where the processing target portion 16 of the large member 14e is at a fixed position on the image. .

大型部材14eの状態は、ロボット30eによって変化されない。しかしながら、ロボット30eによって撮像装置21,22の状態が変化するため、撮像装置21,22の実画像上の大型部材14eの状態は変化する。そのため、第3制御部57eの変化情報生成部58は、ロボット30eの単位制御量と、撮像装置21によって撮像された実画像上の大型部材14eの状態の変化量との関係を示す第1変化情報を生成する。また、第3制御部57eの変化情報生成部58は、ロボット30eの単位制御量と、撮像装置22によって撮像された実画像上の大型部材14eの状態の変化量との関係を示す第2変化情報を生成する。   The state of the large member 14e is not changed by the robot 30e. However, since the state of the imaging devices 21 and 22 is changed by the robot 30e, the state of the large member 14e on the real images of the imaging devices 21 and 22 is changed. Therefore, the change information generation unit 58 of the third control unit 57e performs the first change indicating the relationship between the unit control amount of the robot 30e and the change amount of the state of the large member 14e on the real image captured by the imaging device 21. Generate information. The change information generation unit 58 of the third control unit 57e performs the second change indicating the relationship between the unit control amount of the robot 30e and the change amount of the state of the large member 14e on the real image captured by the imaging device 22. Generate information.

第3制御部57eにおける算出部60、指令部61および終了判定部62の処理内容は、上記の実施の形態に係る第1制御部57aおよび第2制御部57bと同じである。   The processing contents of the calculation unit 60, the command unit 61, and the end determination unit 62 in the third control unit 57e are the same as those of the first control unit 57a and the second control unit 57b according to the above embodiment.

一方、第1制御部57cおよび第2制御部57dにおける算出部60は、以下の開始条件が満たされたときのみ、実画像上の対象物の状態が目標フレーム上の対象物の状態に近づくように対象ロボットの制御量を算出する。
開始条件:実画像上の大型部材14eの状態と目標フレーム上の大型部材14eの状態との偏差が閾値The未満である。
On the other hand, the calculation unit 60 in the first control unit 57c and the second control unit 57d determines that the state of the target on the real image approaches the state of the target on the target frame only when the following start conditions are satisfied. First, the control amount of the target robot is calculated.
Start condition: The deviation between the state of the large member 14e on the actual image and the state of the large member 14e on the target frame is less than the threshold The.

第1制御部57cおよび第2制御部57dにおける指令部61および終了判定部62の処理内容は、上記の実施の形態に係る第1制御部57aおよび第2制御部57bと同じである。   The processing contents of the command unit 61 and the termination determination unit 62 in the first control unit 57c and the second control unit 57d are the same as those of the first control unit 57a and the second control unit 57b according to the above embodiment.

変形例6に係る制御装置50Cは、上記の実施の形態と同様に図10のフローチャートに沿って、第1CG動画および第2CG動画に従って対象物の状態が変化するように対象ロボットを制御する。   The control device 50C according to Modification 6 controls the target robot such that the state of the target object changes according to the first CG moving image and the second CG moving image in accordance with the flowchart in FIG. 10 as in the above embodiment.

さらに、変形例6において、第3制御部57eは、上記の実施の形態と同様に図13に示すフローチャートに従って、図10に示すステップS6のサブルーチンの処理を行なう。しかしながら、第1制御部57cおよび第2制御部57dは、図25に示すフローチャートに従って、図10に示すステップS6のサブルーチンの処理を行なう。   Further, in the sixth modification, the third control unit 57e performs the process of the subroutine of step S6 shown in FIG. 10 according to the flowchart shown in FIG. 13 similarly to the above embodiment. However, the first control unit 57c and the second control unit 57d perform the processing of the subroutine of step S6 shown in FIG.

図25は、変形例6の第1制御部および第2制御部の処理の流れを示すフローチャートである。図25に示されるように、変形例6の第1制御部57cおよび第2制御部57dの処理の流れは、図13に示すフローチャートと比べて、ステップS90を備える点で相違する。そのため、ステップS90についてのみ説明する。   FIG. 25 is a flowchart illustrating a flow of processing of the first control unit and the second control unit according to the sixth modification. As shown in FIG. 25, the flow of processing of the first control unit 57c and the second control unit 57d of Modification 6 is different from the flow chart shown in FIG. 13 in that step S90 is provided. Therefore, only step S90 will be described.

ステップS90において、実画像上の大型部材14eの状態と目標フレーム上の大型部材14eの状態との偏差が閾値Thj未満であるか否かが判定される。偏差が閾値Thj以上である場合(ステップS90でNO)、処理は終了する。偏差が閾値Thj未満である場合(ステップS90でYES)、ステップS21〜S25が行われる。   In step S90, it is determined whether the deviation between the state of the large member 14e on the actual image and the state of the large member 14e on the target frame is less than a threshold Thj. If the deviation is equal to or larger than the threshold Thj (NO in step S90), the process ends. If the deviation is less than the threshold Thj (YES in step S90), steps S21 to S25 are performed.

このように、制御装置50Cは、実画像上の大型部材14eの状態と目標フレーム上の大型部材14eの状態との偏差が閾値Thjを超える場合、ロボット30eのみを制御する。制御装置50Cは、実画像上の大型部材14eの状態と目標フレーム上の大型部材14eの状態との偏差が閾値Thj未満である場合、ロボット30c〜30eの各々を制御する。   As described above, when the deviation between the state of the large member 14e on the actual image and the state of the large member 14e on the target frame exceeds the threshold Thj, the control device 50C controls only the robot 30e. The control device 50C controls each of the robots 30c to 30e when the deviation between the state of the large member 14e on the actual image and the state of the large member 14e on the target frame is less than the threshold Thj.

たとえば、第1CG動画および第2CG動画が上記のような第1〜第3シーンを順に示す場合は、以下のようにロボット30c〜30eが制御される。第1シーンの中から目標フレームが選択されている場合、大型部材14eの加工対象部分15が画像上の定位置になるように撮像装置21,22が移動するまでの間、ロボット30c,30dは停止した状態となる。そして、大型部材14eの加工対象部分15が画像上の定位置になってから、第1制御部57cは、実画像上の対象物の状態が目標フレーム上の対象物の状態に近づくように対象ロボットを制御する。その結果、加工具14c,14dは、加工対象部分15に対して加工する。この間も、第3制御部57eは、実画像上の大型部材14eの状態が目標フレーム上の大型部材14eの状態に近づくようにロボット30eを制御する。ただし、第1シーンにおいて、大型部材14eの状態は一定であるため、ロボット30eはほとんど動作せず、撮像装置21,22の状態は略一定となる。   For example, when the first CG moving image and the second CG moving image sequentially indicate the first to third scenes as described above, the robots 30c to 30e are controlled as follows. When the target frame is selected from the first scene, the robots 30c and 30d move until the imaging devices 21 and 22 move so that the processing target portion 15 of the large member 14e is at a fixed position on the image. It will be in a stopped state. Then, after the processing target portion 15 of the large member 14e is at the fixed position on the image, the first control unit 57c sets the target so that the state of the target on the real image approaches the state of the target on the target frame. Control the robot. As a result, the processing tools 14c and 14d process the processing target portion 15. Also during this time, the third control unit 57e controls the robot 30e such that the state of the large member 14e on the actual image approaches the state of the large member 14e on the target frame. However, in the first scene, since the state of the large member 14e is constant, the robot 30e hardly operates, and the states of the imaging devices 21 and 22 are substantially constant.

上記の第2シーンの中から目標フレームが選択されている場合、実画像上の大型部材14eの状態が変化するようにロボット30eが制御され、撮像装置21,22が移動する。大型部材14eの加工対象部分16が画像上の定位置になるように撮像装置21,22が移動するまでの間、ロボット30c,30dは停止した状態となる。   When the target frame is selected from the second scene, the robot 30e is controlled so that the state of the large member 14e on the real image changes, and the imaging devices 21 and 22 move. The robots 30c and 30d are in a stopped state until the imaging devices 21 and 22 move so that the processing target portion 16 of the large member 14e is at a fixed position on the image.

大型部材14eの加工対象部分16が画像上の定位置となり、上記の第3シーンの中から目標フレームが選択されると、第1制御部57cは、実画像上の対象物の状態が目標フレーム上の対象物の状態に近づくように対象ロボットを制御する。その結果、加工具14c,14dは、加工対象部分16に対して加工する。この間も、第3制御部57eは、実画像上の大型部材14eの状態が目標フレーム上の大型部材14eの状態に近づくようにロボット30eを制御する。ただし、第3シーンにおいて、大型部材14eの状態は一定であるため、ロボット30eはほとんど動作せず、撮像装置21,22の状態は略一定となる。   When the processing target portion 16 of the large member 14e becomes a fixed position on the image and a target frame is selected from the third scene, the first control unit 57c changes the state of the target on the real image to the target frame. The target robot is controlled so as to approach the state of the target object above. As a result, the processing tools 14c and 14d process the processing target portion 16. Also during this time, the third control unit 57e controls the robot 30e such that the state of the large member 14e on the actual image approaches the state of the large member 14e on the target frame. However, in the third scene, since the state of the large member 14e is constant, the robot 30e hardly operates, and the states of the imaging devices 21 and 22 are substantially constant.

図26は、変形例6に係る制御システムの別の構成例を示す模式図である。図26に示されるように、ロボット30c,30dは、ロボット30eに含まれる台座33eの上に設置されてもよい。この場合、ロボット30c,30dは、ロボット30eと一体となって移動する。   FIG. 26 is a schematic diagram illustrating another configuration example of the control system according to the sixth modification. As shown in FIG. 26, the robots 30c and 30d may be installed on a pedestal 33e included in the robot 30e. In this case, the robots 30c and 30d move integrally with the robot 30e.

<D−7.変形例7>
算出部60は、公知のモデル予測制御(「足立、「モデル予測制御の基礎」、日本ロボット学会誌、2014年7月、第32巻、第6号、p. 9-12」(非特許文献2)参照)を行なうことにより、複数の自由度の制御量を算出してもよい。
<D-7. Modification 7>
The calculation unit 60 performs a known model predictive control (“Adachi,“ Basics of Model Predictive Control ”, Journal of the Robotics Society of Japan, July 2014, Vol. 32, No. 6, p. 9-12) (Non-Patent Document By performing 2)), control amounts of a plurality of degrees of freedom may be calculated.

具体的には、目標フレーム選択部56は、教示範囲のうち予測ホライズン期間に含まれる複数のフレームを目標フレームとして選択する。算出部60は、目標フレーム上の対象物の状態と、予測ホライズン期間において撮像装置21,22によって撮像される画像上の対象物の状態との偏差を最小化するように、制御ホライズン期間における制御量を算出する。   Specifically, the target frame selection unit 56 selects a plurality of frames included in the predicted horizon period in the teaching range as target frames. The calculation unit 60 performs control during the control horizon period so as to minimize the deviation between the state of the object on the target frame and the state of the object on the images captured by the imaging devices 21 and 22 during the predicted horizon period. Calculate the amount.

<D−8.その他の変形例>
上記の説明では、オスコネクタ2aをメスコネクタ2bに向けて移動させることにより、オスコネクタ2aとメスコネクタ2bとを接続させた。しかしながら、オスコネクタ2aがステージ31b上に載置され、メスコネクタ2bがハンド31aに把持されてもよい。この場合、メスコネクタ2bをオスコネクタ2aに向けて移動させることにより、オスコネクタ2aとメスコネクタ2bとを接続させる。
<D-8. Other Modifications>
In the above description, the male connector 2a and the female connector 2b are connected by moving the male connector 2a toward the female connector 2b. However, the male connector 2a may be placed on the stage 31b, and the female connector 2b may be gripped by the hand 31a. In this case, the male connector 2a and the female connector 2b are connected by moving the female connector 2b toward the male connector 2a.

上記の説明では、制御装置50,50A,50B,50Cの動画記憶部51がCG動画を記憶するものとした。しかしながら、制御装置50,50A,50B,50Cの外部装置がCG動画を記憶していてもよい。   In the above description, the moving image storage unit 51 of each of the control devices 50, 50A, 50B, and 50C stores the CG moving image. However, external devices of the control devices 50, 50A, 50B, and 50C may store CG moving images.

動画記憶部51は、CG動画の代わりに、もしくは、CG動画に加えて、CG動画の各フレームから抽出された各対象物の特徴点の座標および特徴量を記憶していてもよい。これにより、CG動画の各フレームに対する画像処理部55,255の処理を省略することができる。   The moving image storage unit 51 may store, instead of or in addition to the CG moving image, the coordinates and the feature amounts of the feature points of each object extracted from each frame of the CG moving image. Thus, the processing of the image processing units 55 and 255 for each frame of the CG moving image can be omitted.

<E.付記>
以上のように、本実施の形態および変形例は以下のような開示を含む。
<E. Appendix>
As described above, the present embodiment and the modifications include the following disclosure.

(構成1)
第1〜第Nのロボット(30a〜30e)と、
第1〜第Nの対象物(2a,2b,9a,9b,10c〜10f、14c〜14e)を撮像するための撮像装置(21〜24)と、
前記第1〜第Nのロボット(30a〜30e)を制御するための制御装置(50,50A,50B,50C)とを備える制御システム(1,1A,1C)であって、
Nは2以上の整数であり、
第iのロボット(30a〜30e)は、第iの対象物の状態を変化させ、
iは1〜N−1の整数であり、
前記第Nのロボット(30a〜30e)は、前記第Nの対象物および前記撮像装置(21〜24)の一方の状態を変化させ、
前記第Nの対象物および前記撮像装置(21〜24)の他方は、定位置に設置され、
前記制御装置(50,50A,50B,50C)は、前記第1〜第Nの対象物の各々について変化情報を取得し、
第jの対象物に対応する前記変化情報は、第jのロボットの制御量と、前記撮像装置の画像上における前記第jの対象物の状態の変化量との関係を示し、
jは1〜Nの整数であり、
前記制御装置(50,50A,50B,50C)は、
前記撮像装置(21〜24)によって撮像された実画像を取得する第1処理と、
前記第1〜第Nの対象物のモデルを示すCG動画から目標フレームを選択する第2処理と、
前記実画像と前記目標フレームとに基づいて前記第1〜第Nのロボット(30a〜30e)の各々を制御する第3処理とを行ない、
前記制御装置(50,50A,50B,50C)は、前記第3処理において、前記第jの対象物に対応する前記変化情報に基づいて、前記実画像上の前記第jの対象物の状態を前記目標フレーム上の前記第jの対象物のモデルの状態に近づけるための前記第jのロボット(30a〜30e)の制御量を算出し、算出した制御量に従って前記第jのロボット(30a〜30e)を制御する、制御システム(1,1A,1C)。
(Configuration 1)
First to N-th robots (30a to 30e);
Imaging devices (21 to 24) for imaging the first to Nth objects (2a, 2b, 9a, 9b, 10c to 10f, 14c to 14e);
A control system (1, 1A, 1C) including a control device (50, 50A, 50B, 50C) for controlling the first to Nth robots (30a to 30e),
N is an integer of 2 or more;
The i-th robot (30a to 30e) changes the state of the i-th object,
i is an integer of 1 to N-1,
The N-th robot (30a to 30e) changes one state of the N-th object and the imaging device (21 to 24),
The other of the N-th object and the imaging devices (21 to 24) is installed at a fixed position,
The control device (50, 50A, 50B, 50C) acquires change information for each of the first to Nth objects,
The change information corresponding to the j-th object indicates a relationship between a control amount of the j-th robot and a change amount of a state of the j-th object on an image of the imaging device,
j is an integer of 1 to N;
The control device (50, 50A, 50B, 50C)
A first process of acquiring a real image captured by the imaging device (21 to 24);
A second process of selecting a target frame from a CG moving image showing the models of the first to Nth objects;
Performing a third process for controlling each of the first to Nth robots (30a to 30e) based on the actual image and the target frame;
In the third processing, the control device (50, 50A, 50B, 50C) changes a state of the j-th object on the real image based on the change information corresponding to the j-th object. The control amount of the j-th robot (30a to 30e) for approaching the state of the model of the j-th object on the target frame is calculated, and the j-th robot (30a to 30e) is calculated according to the calculated control amount. ), A control system (1, 1A, 1C).

(構成2)
前記CG動画は、前記第1〜第Nの対象物の各々の設計データに基づいて作成され、
前記CG動画は、前記第1の対象物と第2〜第Nの対象物のうちの少なくとも1つの対象物とが離れた状態を示すフレームから前記第1の対象物と前記少なくとも1つの対象物とが接合した状態を示すフレームまでを含み、
前記制御装置(50A)は、前記第3処理において、前記設計データに対する前記第1の対象物および前記少なくとも1つの対象物の製造誤差に応じた調整量だけ前記第1のロボット(30a〜30e)の制御量を調整し、調整後の制御量に従って前記第1のロボット(30a〜30e)を制御する、構成1に記載の制御システム(1A)。
(Configuration 2)
The CG moving image is created based on the design data of each of the first to Nth objects,
The CG moving image is obtained from a frame indicating a state in which the first object and at least one of the second to Nth objects are separated from each other. And up to the frame showing the joined state,
The control device (50A) may include, in the third processing, the first robot (30a to 30e) by an adjustment amount corresponding to a manufacturing error of the first object and at least one object with respect to the design data. The control system (1A) according to Configuration 1, wherein the control amount is adjusted and the first robot (30a to 30e) is controlled according to the adjusted control amount.

(構成3)
前記制御システム(1A)は、前記第1の対象物および前記少なくとも1つの対象物の一方が他方から受ける力を検知する力覚センサ(32)を含み、
前記制御装置(50A,50B)は、前記力覚センサによって検知される力が極小となる前記第1の対象物の状態を探索し、探索された前記第1の対象物の状態に基づいて前記調整量を決定する、構成2に記載の制御システム(1A)。
(Configuration 3)
The control system (1A) includes a force sensor (32) for detecting a force that one of the first object and the at least one object receives from the other,
The control device (50A, 50B) searches for the state of the first object where the force detected by the force sensor is minimal, and based on the searched state of the first object, The control system (1A) according to Configuration 2, wherein the control system determines the adjustment amount.

(構成4)
前記制御装置(50A,50B)は、入力装置(534)と接続され、前記入力装置(534)から前記調整量を取得する、構成2に記載の制御システム(1A)。
(Configuration 4)
The control system (1A) according to configuration 2, wherein the control device (50A, 50B) is connected to an input device (534) and acquires the adjustment amount from the input device (534).

(構成5)
前記CG動画は、前記第1の対象物と第2〜第Nの対象物のうちの少なくとも1つの対象物とが離れた状態を示すフレームから前記第1の対象物と前記少なくとも1つの対象物とが接合した状態を示すフレームまでを含み、
前記制御システム(50B)は、前記第1の対象物および前記少なくとも1つの対象物の一方が他方から受ける力を検知する力覚センサ(32)を含み、
前記制御装置(50B)は、
前記第1処理から前記第3処理を繰り返す第1モードを行ない、
前記第1モードにおける前記第3処理において、前記第1のロボットの制御量を調整して、前記力覚センサによって検知される力が極小となる調整量を探索し、
探索された前記調整量だけ前記第1のロボットの制御量を調整したときに前記撮像装置によって撮像された動画を基準動画として取得し、
前記第1処理と、前記CG動画の代わりに前記基準動画から前記目標フレームを選択する第4処理と、前記第3処理とを繰り返す第2モードを行なう、構成1に記載の制御システム。
(Configuration 5)
The CG moving image may include a first object and the at least one object from a frame indicating a state in which the first object and at least one of the second to Nth objects are separated from each other. And up to the frame showing the joined state,
The control system (50B) includes a force sensor (32) for detecting a force that one of the first object and the at least one object receives from the other,
The control device (50B)
Performing a first mode in which the third processing is repeated from the first processing;
In the third process in the first mode, the control amount of the first robot is adjusted to search for an adjustment amount at which the force detected by the force sensor is minimal,
When the control amount of the first robot is adjusted by the searched adjustment amount, a moving image captured by the imaging device is acquired as a reference moving image,
The control system according to Configuration 1, wherein a second mode in which the first processing, the fourth processing for selecting the target frame from the reference moving image instead of the CG moving image, and the third processing are performed is performed.

(構成6)
第1〜第Nの対象物(2a,2b,9a,9b,10c〜10f,14c〜14e)を撮像するための撮像装置(21〜24)を用いて、第1〜第Nのロボット(30a〜30e)を制御する制御方法であって、
Nは2以上の整数であり、
第iのロボット(30a〜30e)は、第iの対象物の状態を変化させ、
iは1〜N−1の整数であり、
前記第Nのロボット(30a〜30e)は、前記第Nの対象物および前記撮像装置の一方の状態を変化させ、
前記第Nの対象物および前記撮像装置(21〜24)の他方は、定位置に設置され、
前記撮像装置(21〜24)は、前記第1〜第Nのロボット(30a〜30e)と異なる固定位置に設置され、
前記制御方法は、
前記第1〜第Nのロボット(30a〜30e)の各々について変化情報を取得する第1ステップを備え、
第jのロボット(30a〜30e)に対応する前記変化情報は、前記第jのロボット(30a〜30e)の制御量と、前記撮像装置の画像上における第jの対象物の状態の変化量との関係を示し、
jは1〜Nの整数であり、
前記制御方法は、
前記撮像装置(21〜24)によって撮像された実画像を取得する第2ステップと、
前記第1〜第Nの対象物のモデルを示すCG動画から目標フレームを選択する第3ステップと、
前記実画像と前記目標フレームとに基づいて前記第1〜第Nのロボット(30a〜30e)の各々を制御する第4ステップとをさらに備え、
前記第4ステップは、前記第jのロボット(30a〜30e)に対応する前記変化情報に基づいて、前記実画像上の前記第jの対象物の状態を前記目標フレーム上の前記第jの対象物の状態に近づけるための制御量を算出し、算出した制御量に従って前記第jのロボット(30a〜30e)制御するステップを含む、制御方法。
(Configuration 6)
First to Nth robots (30a) using an imaging device (21 to 24) for imaging the first to Nth objects (2a, 2b, 9a, 9b, 10c to 10f, 14c to 14e). To 30e), wherein:
N is an integer of 2 or more;
The i-th robot (30a to 30e) changes the state of the i-th object,
i is an integer of 1 to N-1,
The N-th robot (30a to 30e) changes one state of the N-th object and the imaging device,
The other of the N-th object and the imaging devices (21 to 24) is installed at a fixed position,
The imaging devices (21 to 24) are installed at fixed positions different from the first to Nth robots (30a to 30e),
The control method includes:
A first step of acquiring change information for each of the first to Nth robots (30a to 30e);
The change information corresponding to the j-th robot (30a to 30e) includes a control amount of the j-th robot (30a to 30e), a change amount of a state of the j-th object on an image of the imaging device, and Shows the relationship
j is an integer of 1 to N;
The control method includes:
A second step of acquiring a real image captured by the imaging device (21 to 24);
A third step of selecting a target frame from a CG video showing the models of the first to Nth objects;
A fourth step of controlling each of the first to Nth robots (30a to 30e) based on the actual image and the target frame,
The fourth step includes, based on the change information corresponding to the j-th robot (30a to 30e), changing the state of the j-th object on the real image to the j-th object on the target frame. A control method for calculating a control amount for approaching a state of an object, and controlling the j-th robot (30a to 30e) according to the calculated control amount.

(構成7)
第1〜第Nの対象物(2a,2b,9a,9b,10c〜10f,14c〜14e)を撮像するための撮像装置(21〜24)を用いて、第1〜第Nのロボット(30a〜30e)を制御する制御方法をコンピュータに実行させるためのプログラム(550)であって、
Nは2以上の整数であり、
第iのロボット(30a〜30e)は、第iの対象物の状態を変化させ、
iは1〜N−1の整数であり、
前記第Nのロボット(30a〜30e)は、前記第Nの対象物および前記撮像装置の一方の状態を変化させ、
前記第Nの対象物および前記撮像装置(21〜24)の他方は、定位置に設置され、
前記撮像装置(21〜24)は、前記第1〜第Nのロボット(30a〜30e)と異なる固定位置に設置され、
前記制御方法は、
前記第1〜第Nのロボット(30a〜30e)の各々について変化情報を取得する第1ステップを備え、
第jのロボット(30a〜30e)に対応する前記変化情報は、前記第jのロボット(30a〜30e)の制御量と、前記撮像装置の画像上における第jの対象物の状態の変化量との関係を示し、
jは1〜Nの整数であり、
前記制御方法は、
前記撮像装置(21〜24)によって撮像された実画像を取得する第2ステップと、
前記第1〜第Nの対象物のモデルを示すCG動画から目標フレームを選択する第3ステップと、
前記実画像と前記目標フレームとに基づいて前記第1〜第Nのロボット(30a〜30e)の各々を制御する第4ステップとをさらに備え、
前記第4ステップは、前記第jのロボット(30a〜30e)に対応する前記変化情報に基づいて、前記実画像上の前記第jの対象物の状態を前記目標フレーム上の前記第jの対象物の状態に近づけるための制御量を算出し、算出した制御量に従って前記第jのロボット(30a〜30e)制御するステップを含む、プログラム(550)。
(Configuration 7)
First to Nth robots (30a) using an imaging device (21 to 24) for imaging the first to Nth objects (2a, 2b, 9a, 9b, 10c to 10f, 14c to 14e). A program (550) for causing a computer to execute a control method for controlling the control method of (e) to (e).
N is an integer of 2 or more;
The i-th robot (30a to 30e) changes the state of the i-th object,
i is an integer of 1 to N-1,
The N-th robot (30a to 30e) changes one state of the N-th object and the imaging device,
The other of the N-th object and the imaging devices (21 to 24) is installed at a fixed position,
The imaging devices (21 to 24) are installed at fixed positions different from the first to Nth robots (30a to 30e),
The control method includes:
A first step of acquiring change information for each of the first to Nth robots (30a to 30e);
The change information corresponding to the j-th robot (30a to 30e) includes a control amount of the j-th robot (30a to 30e), a change amount of a state of the j-th object on an image of the imaging device, and Shows the relationship
j is an integer of 1 to N;
The control method includes:
A second step of acquiring a real image captured by the imaging device (21 to 24);
A third step of selecting a target frame from a CG video showing the models of the first to Nth objects;
A fourth step of controlling each of the first to Nth robots (30a to 30e) based on the actual image and the target frame,
The fourth step includes, based on the change information corresponding to the j-th robot (30a to 30e), changing the state of the j-th object on the real image to the j-th object on the target frame. A program (550) including a step of calculating a control amount for approaching an object state and controlling the j-th robot (30a to 30e) according to the calculated control amount.

本発明の実施の形態について説明したが、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   Although the embodiment of the present invention has been described, the embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1,1A,1C 制御システム、2a オスコネクタ、2a’ オスコネクタモデル、2b メスコネクタ、2b’ メスコネクタモデル、7 挿入孔、8 切欠き部、9a ボルト、9b 板状部品、10c,10d ビス、10e,10f 円筒部材、11a,11b,12a,12b ビス孔、13 ボルト孔、14c,14d 加工具、14e 大型部材、15,16 加工対象部分、21〜24 撮像装置、30a〜30e ロボット、31a,31c〜31e ハンド、31a’ ハンドモデル、31b ステージ、31b’ ステージモデル、32 力覚センサ、40a〜40e ロボットコントローラ、50,50A,50B,50C 制御装置、51 動画記憶部、52 設計データ記憶部、53 CG動画生成部、54,254 教示範囲選択部、55,255 画像処理部、56,256 目標フレーム選択部、57a,57c,157a,257a 第1制御部、57b,57d,157b,257b 第2制御部、57e 第3制御部、58,258 変化情報生成部、59 変化情報記憶部、60,260 算出部、61,161,261 指令部、62 終了判定部、63 オフセット量決定部、64 基準動画生成部、510 プロセッサ、512 RAM、514 表示コントローラ、516 システムコントローラ、518 I/Oコントローラ、520 ハードディスク、522 カメラインターフェイス、522a,522b 画像バッファ、524 入力インターフェイス、526 ロボットコントローラインターフェイス、528 通信インターフェイス、530 メモリカードインターフェイス、532 表示部、534 入力装置、536 メモリカード、550 制御プログラム、591 第1変化情報セット、592 第2変化情報セット、593 第3変化情報セット、594 第4変化情報セット。   1, 1A, 1C control system, 2a male connector, 2a 'male connector model, 2b female connector, 2b' female connector model, 7 insertion hole, 8 notch, 9a bolt, 9b plate-like component, 10c, 10d screw, 10e, 10f cylindrical member, 11a, 11b, 12a, 12b screw hole, 13 bolt hole, 14c, 14d processing tool, 14e large member, 15, 16 part to be processed, 21-24 imaging device, 30a-30e robot, 31a, 31c to 31e hand, 31a 'hand model, 31b stage, 31b' stage model, 32 force sensor, 40a to 40e robot controller, 50, 50A, 50B, 50C control device, 51 moving image storage unit, 52 design data storage unit, 53 CG moving image generator, 54, 254 Teaching range selection Selection unit, 55, 255 image processing unit, 56, 256 target frame selection unit, 57a, 57c, 157a, 257a first control unit, 57b, 57d, 157b, 257b second control unit, 57e third control unit, 58, 258 change information generation unit, 59 change information storage unit, 60, 260 calculation unit, 61, 161, 261 command unit, 62 end determination unit, 63 offset amount determination unit, 64 reference moving image generation unit, 510 processor, 512 RAM, 514 Display controller, 516 system controller, 518 I / O controller, 520 hard disk, 522 camera interface, 522a, 522b image buffer, 524 input interface, 526 robot controller interface, 528 communication interface, 530 memory Over de interface, 532 display unit, 534 input unit, 536 memory card, 550 control program, 591 a first change information set 592 second change information set 593 third variation information set 594 fourth change information set.

Claims (7)

第1〜第Nのロボットと、
第1〜第Nの対象物を撮像するための撮像装置と、
前記第1〜第Nのロボットを制御するための制御装置とを備える制御システムであって、
Nは2以上の整数であり、
第iのロボットは、第iの対象物の状態を変化させ、
iは1〜N−1の整数であり、
前記第Nのロボットは、前記第Nの対象物および前記撮像装置の一方の状態を変化させ、
前記第Nの対象物および前記撮像装置の他方は、定位置に設置され、
前記制御装置は、前記第1〜第Nの対象物の各々について変化情報を取得し、
第jの対象物に対応する前記変化情報は、第jのロボットの制御量と、前記撮像装置の画像上における前記第jの対象物の状態の変化量との関係を示し、
jは1〜Nの整数であり、
前記制御装置は、
前記撮像装置によって撮像された実画像を取得する第1処理と、
前記第1〜第Nの対象物のモデルを示すCG動画から目標フレームを選択する第2処理と、
前記実画像と前記目標フレームとに基づいて前記第1〜第Nのロボットの各々を制御する第3処理とを行ない、
前記制御装置は、前記第3処理において、前記第jの対象物に対応する前記変化情報に基づいて、前記実画像上の前記第jの対象物の状態を前記目標フレーム上の前記第jの対象物のモデルの状態に近づけるための前記第jのロボットの制御量を算出し、算出した制御量に従って前記第jのロボットを制御する、制御システム。
First to N-th robots,
An imaging device for imaging the first to Nth objects;
A control device for controlling the first to Nth robots,
N is an integer of 2 or more;
The i-th robot changes the state of the i-th object,
i is an integer of 1 to N-1,
The N-th robot changes one state of the N-th object and the imaging device,
The other of the N-th object and the imaging device is installed at a fixed position,
The control device acquires change information for each of the first to Nth objects,
The change information corresponding to the j-th object indicates a relationship between a control amount of the j-th robot and a change amount of a state of the j-th object on an image of the imaging device,
j is an integer of 1 to N;
The control device includes:
A first process of acquiring a real image captured by the imaging device;
A second process of selecting a target frame from a CG moving image showing the models of the first to Nth objects;
Performing a third process for controlling each of the first to Nth robots based on the actual image and the target frame;
The control device, in the third processing, based on the change information corresponding to the j-th object, changes the state of the j-th object on the real image to the j-th object on the target frame. A control system for calculating a control amount of the j-th robot for approaching a state of a model of an object, and controlling the j-th robot according to the calculated control amount.
前記CG動画は、前記第1〜第Nの対象物の各々の設計データに基づいて作成され、
前記CG動画は、前記第1の対象物と第2〜第Nの対象物のうちの少なくとも1つの対象物とが離れた状態を示すフレームから前記第1の対象物と前記少なくとも1つの対象物とが接合した状態を示すフレームまでを含み、
前記制御装置は、前記第3処理において、前記設計データに対する前記第1の対象物および前記少なくとも1つの対象物の製造誤差に応じた調整量だけ前記第1のロボットの制御量を調整し、調整後の制御量に従って前記第1のロボットを制御する、請求項1に記載の制御システム。
The CG moving image is created based on the design data of each of the first to Nth objects,
The CG moving image may include a first object and the at least one object from a frame indicating a state in which the first object and at least one of the second to Nth objects are separated from each other. And up to the frame showing the joined state,
The control device adjusts the control amount of the first robot by an adjustment amount according to a manufacturing error of the first object and the at least one object with respect to the design data in the third processing. The control system according to claim 1, wherein the first robot is controlled in accordance with a later control amount.
前記制御システムは、前記第1の対象物および前記少なくとも1つの対象物の一方が他方から受ける力を検知する力覚センサを含み、
前記制御装置は、前記力覚センサによって検知される力が極小となる前記第1の対象物の状態を探索し、探索された前記第1の対象物の状態に基づいて前記調整量を決定する、請求項2に記載の制御システム。
The control system includes a force sensor that detects a force that one of the first object and the at least one object receives from the other,
The control device searches for the state of the first object where the force detected by the force sensor is minimal, and determines the adjustment amount based on the searched state of the first object. The control system according to claim 2.
前記制御装置は、入力装置と接続され、前記入力装置から前記調整量を取得する、請求項2に記載の制御システム。   The control system according to claim 2, wherein the control device is connected to an input device, and acquires the adjustment amount from the input device. 前記CG動画は、前記第1の対象物と第2〜第Nの対象物のうちの少なくとも1つの対象物とが離れた状態を示すフレームから前記第1の対象物と前記少なくとも1つの対象物とが接合した状態を示すフレームまでを含み、
前記制御システムは、前記第1の対象物および前記少なくとも1つの対象物の一方が他方から受ける力を検知する力覚センサを含み、
前記制御装置は、
前記第1処理から前記第3処理を繰り返す第1モードを行ない、
前記第1モードにおける前記第3処理において、前記第1のロボットの制御量を調整して、前記力覚センサによって検知される力が極小となる調整量を探索し、
探索された前記調整量だけ前記第1のロボットの制御量を調整したときに前記撮像装置によって撮像された動画を基準動画として取得し、
前記第1処理と、前記CG動画の代わりに前記基準動画から前記目標フレームを選択する第4処理と、前記第3処理とを繰り返す第2モードを行なう、請求項1に記載の制御システム。
The CG moving image may include a first object and the at least one object from a frame indicating a state in which the first object and at least one of the second to Nth objects are separated from each other. And up to the frame showing the joined state,
The control system includes a force sensor that detects a force that one of the first object and the at least one object receives from the other,
The control device includes:
Performing a first mode in which the third processing is repeated from the first processing;
In the third process in the first mode, the control amount of the first robot is adjusted to search for an adjustment amount at which the force detected by the force sensor is minimal,
When the control amount of the first robot is adjusted by the searched adjustment amount, a moving image captured by the imaging device is acquired as a reference moving image,
The control system according to claim 1, wherein a second mode in which the first processing, the fourth processing for selecting the target frame from the reference moving image instead of the CG moving image, and the third processing are repeated is performed.
第1〜第Nの対象物を撮像するための撮像装置を用いて、第1〜第Nのロボットを制御する制御方法であって、
Nは2以上の整数であり、
第iのロボットは、第iの対象物の状態を変化させ、
iは1〜N−1の整数であり、
前記第Nのロボットは、前記第Nの対象物および前記撮像装置の一方の状態を変化させ、
前記第Nの対象物および前記撮像装置の他方は、定位置に設置され、
前記制御方法は、
前記第1〜第Nのロボットの各々について変化情報を取得する第1ステップを備え、
第jのロボットに対応する前記変化情報は、前記第jのロボットの制御量と、前記撮像装置の画像上における第jの対象物の状態の変化量との関係を示し、
jは1〜Nの整数であり、
前記制御方法は、
前記撮像装置によって撮像された実画像を取得する第2ステップと、
前記第1〜第Nの対象物のモデルを示すCG動画から目標フレームを選択する第3ステップと、
前記実画像と前記目標フレームとに基づいて前記第1〜第Nのロボットの各々を制御する第4ステップとをさらに備え、
前記第4ステップは、前記第jのロボットに対応する前記変化情報に基づいて、前記実画像上の前記第jの対象物の状態を前記目標フレーム上の前記第jの対象物の状態に近づけるための制御量を算出し、算出した制御量に従って前記第jのロボットを制御するステップを含む、制御方法。
A control method for controlling first to Nth robots using an imaging device for imaging first to Nth objects,
N is an integer of 2 or more;
The i-th robot changes the state of the i-th object,
i is an integer of 1 to N-1,
The N-th robot changes one state of the N-th object and the imaging device,
The other of the N-th object and the imaging device is installed at a fixed position,
The control method includes:
A first step of acquiring change information for each of the first to Nth robots,
The change information corresponding to the j-th robot indicates a relationship between a control amount of the j-th robot and a change amount of a state of the j-th object on an image of the imaging device,
j is an integer of 1 to N;
The control method includes:
A second step of acquiring a real image captured by the imaging device;
A third step of selecting a target frame from a CG video showing the models of the first to Nth objects;
A fourth step of controlling each of the first to Nth robots based on the real image and the target frame,
The fourth step brings the state of the j-th object on the real image closer to the state of the j-th object on the target frame based on the change information corresponding to the j-th robot. And calculating the control amount for controlling the j-th robot in accordance with the calculated control amount.
第1〜第Nの対象物を撮像するための撮像装置を用いて、第1〜第Nのロボットを制御する制御方法をコンピュータに実行させるためのプログラムであって、
Nは2以上の整数であり、
第iのロボットは、第iの対象物の状態を変化させ、
iは1〜N−1の整数であり、
前記第Nのロボットは、前記第Nの対象物および前記撮像装置の一方の状態を変化させ、
前記第Nの対象物および前記撮像装置の他方は、定位置に設置され、
前記制御方法は、
前記第1〜第Nのロボットの各々について変化情報を取得する第1ステップを備え、
第jのロボットに対応する前記変化情報は、前記第jのロボットの制御量と、前記撮像装置の画像上における第jの対象物の状態の変化量との関係を示し、
jは1〜Nの整数であり、
前記制御方法は、
前記撮像装置によって撮像された実画像を取得する第2ステップと、
前記第1〜第Nの対象物のモデルを示すCG動画から目標フレームを選択する第3ステップと、
前記実画像と前記目標フレームとに基づいて前記第1〜第Nのロボットの各々を制御する第4ステップとをさらに備え、
前記第4ステップは、前記第jのロボットに対応する前記変化情報に基づいて、前記実画像上の前記第jの対象物の状態を前記目標フレーム上の前記第jの対象物の状態に近づけるための制御量を算出し、算出した制御量に従って前記第jのロボットを制御するステップを含む、プログラム。
A program for causing a computer to execute a control method for controlling the first to Nth robots using an imaging device for imaging the first to Nth objects,
N is an integer of 2 or more;
The i-th robot changes the state of the i-th object,
i is an integer of 1 to N-1,
The N-th robot changes one state of the N-th object and the imaging device,
The other of the N-th object and the imaging device is installed at a fixed position,
The control method includes:
A first step of acquiring change information for each of the first to Nth robots,
The change information corresponding to the j-th robot indicates a relationship between a control amount of the j-th robot and a change amount of a state of the j-th object on an image of the imaging device,
j is an integer of 1 to N;
The control method includes:
A second step of acquiring a real image captured by the imaging device;
A third step of selecting a target frame from a CG video showing the models of the first to Nth objects;
A fourth step of controlling each of the first to Nth robots based on the real image and the target frame,
The fourth step brings the state of the j-th object on the real image closer to the state of the j-th object on the target frame based on the change information corresponding to the j-th robot. And calculating a control amount for controlling the j-th robot according to the calculated control amount.
JP2018137705A 2018-07-23 2018-07-23 Control systems, control methods and programs Active JP6939729B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018137705A JP6939729B2 (en) 2018-07-23 2018-07-23 Control systems, control methods and programs
PCT/JP2019/026958 WO2020022040A1 (en) 2018-07-23 2019-07-08 Control system, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018137705A JP6939729B2 (en) 2018-07-23 2018-07-23 Control systems, control methods and programs

Publications (2)

Publication Number Publication Date
JP2020015102A true JP2020015102A (en) 2020-01-30
JP6939729B2 JP6939729B2 (en) 2021-09-22

Family

ID=69181667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018137705A Active JP6939729B2 (en) 2018-07-23 2018-07-23 Control systems, control methods and programs

Country Status (2)

Country Link
JP (1) JP6939729B2 (en)
WO (1) WO2020022040A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021017550A (en) * 2019-07-19 2021-02-15 日本ゼオン株式会社 Acrylic rubber sheet excellent in storage stability
JP7093881B1 (en) 2021-09-06 2022-06-30 Dmg森精機株式会社 System and automatic guided vehicle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02284885A (en) * 1989-04-27 1990-11-22 Nissan Motor Co Ltd Position teaching method for workpiece positioning device
JP2013146844A (en) * 2012-01-23 2013-08-01 Seiko Epson Corp Device, method, and program for generating teaching image, and device, method, and program for controlling robot
JP2013217893A (en) * 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method
JP2015150636A (en) * 2014-02-13 2015-08-24 ファナック株式会社 Robot system utilizing visual feedback
JP2015223649A (en) * 2014-05-27 2015-12-14 株式会社安川電機 Gear incorporation system and gear incorporation method
JP2016059971A (en) * 2014-09-16 2016-04-25 キヤノン株式会社 Robot device, robot control method, program and recording medium
WO2017018113A1 (en) * 2015-07-29 2017-02-02 株式会社オートネットワーク技術研究所 Object handling simulation device, object handling simulation system, method for simulating object handling, manufacturing method for object, and object handling simulation program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02284885A (en) * 1989-04-27 1990-11-22 Nissan Motor Co Ltd Position teaching method for workpiece positioning device
JP2013146844A (en) * 2012-01-23 2013-08-01 Seiko Epson Corp Device, method, and program for generating teaching image, and device, method, and program for controlling robot
JP2013217893A (en) * 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method
JP2015150636A (en) * 2014-02-13 2015-08-24 ファナック株式会社 Robot system utilizing visual feedback
JP2015223649A (en) * 2014-05-27 2015-12-14 株式会社安川電機 Gear incorporation system and gear incorporation method
JP2016059971A (en) * 2014-09-16 2016-04-25 キヤノン株式会社 Robot device, robot control method, program and recording medium
WO2017018113A1 (en) * 2015-07-29 2017-02-02 株式会社オートネットワーク技術研究所 Object handling simulation device, object handling simulation system, method for simulating object handling, manufacturing method for object, and object handling simulation program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021017550A (en) * 2019-07-19 2021-02-15 日本ゼオン株式会社 Acrylic rubber sheet excellent in storage stability
JP7093881B1 (en) 2021-09-06 2022-06-30 Dmg森精機株式会社 System and automatic guided vehicle
WO2023032400A1 (en) * 2021-09-06 2023-03-09 Dmg森精機株式会社 Automatic transport device, and system
JP2023037769A (en) * 2021-09-06 2023-03-16 Dmg森精機株式会社 System and automatic conveyance vehicle

Also Published As

Publication number Publication date
WO2020022040A1 (en) 2020-01-30
JP6939729B2 (en) 2021-09-22

Similar Documents

Publication Publication Date Title
US11207781B2 (en) Method for industrial robot commissioning, industrial robot system and control system using the same
CN106873550B (en) Simulation device and simulation method
JP7326911B2 (en) Control system and control method
CN104842352B (en) Robot system using visual feedback
CN109153125B (en) Method for orienting an industrial robot and industrial robot
JP7115096B2 (en) Control system, control method and program
JP5949242B2 (en) Robot system, robot, robot control apparatus, robot control method, and robot control program
JP6331517B2 (en) Image processing apparatus, system, image processing method, and image processing program
JP6640060B2 (en) Robot system
KR20190070875A (en) Calibration and operation of vision-based manipulation systems
WO2021218542A1 (en) Visual perception device based spatial calibration method and apparatus for robot body coordinate system, and storage medium
JP2002018754A (en) Robot device and its control method
WO2020022040A1 (en) Control system, control method, and program
JP2020179441A (en) Control system, information processing device and control method
CN110815208B (en) Control system, analysis device, and control method
JP7439410B2 (en) Image processing device, image processing method and program
Zhang et al. Vision-guided robotic assembly using uncalibrated vision
CN112347837A (en) Image processing system
JP2014238687A (en) Image processing apparatus, robot control system, robot, image processing method, and image processing program
JP7249221B2 (en) SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD
WO2016151862A1 (en) Assembly teaching device and assembly teaching method
JP6904315B2 (en) Information processing equipment, control systems, information processing methods and programs
JP7441335B2 (en) Motion generation device, robot system, motion generation method, and motion generation program
Liang et al. Research on Hand-Eye Calibration Method Based on Monocular Vision and Accuracy Chain Analysis
Woo et al. Implicit camera calibration using multilayer perceptron type neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6939729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150