JP2021045813A - Control device for cargo handling gear, and cargo handling gear - Google Patents

Control device for cargo handling gear, and cargo handling gear Download PDF

Info

Publication number
JP2021045813A
JP2021045813A JP2019169119A JP2019169119A JP2021045813A JP 2021045813 A JP2021045813 A JP 2021045813A JP 2019169119 A JP2019169119 A JP 2019169119A JP 2019169119 A JP2019169119 A JP 2019169119A JP 2021045813 A JP2021045813 A JP 2021045813A
Authority
JP
Japan
Prior art keywords
robot
coordinate system
processor
side jig
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019169119A
Other languages
Japanese (ja)
Other versions
JP7326082B2 (en
Inventor
香菜 関口
Kana Sekiguchi
香菜 関口
賢一 下山
Kenichi Shimoyama
賢一 下山
盛男 二本松
Morio Nihonmatsu
盛男 二本松
彰久 森屋
Akihisa Moriya
彰久 森屋
増田 哲也
Tetsuya Masuda
哲也 増田
淳 松村
Jun Matsumura
淳 松村
浩二 江原
Koji Ebara
浩二 江原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2019169119A priority Critical patent/JP7326082B2/en
Publication of JP2021045813A publication Critical patent/JP2021045813A/en
Application granted granted Critical
Publication of JP7326082B2 publication Critical patent/JP7326082B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a control device for cargo handling gear which can easily perform calibration.SOLUTION: A control device for cargo handling gear comprises: a processor which controls an operation of a robot for handling a cargo as an object; and an interface which is controlled by the processor, and communicates with the robot. The processor controls the robot, and moves a robot side jig, which is moved by the robot in a real space, toward a first reception part, in which a coordinate of a coordinate system of the real space is regulated, and brings the same into contact therewith on the basis of a coordinate system of a three-dimensional virtual model space, acquires first difference information between the coordinate of the robot side jig and the coordinate of the first reception part, which are obtained when bringing the robot side jig into contact with a prescribed position of the first reception part on the basis of the coordinate system of the three-dimensional virtual model space, via the interface, and calibrates the coordinate system of the three-dimensional virtual model space on the basis of the first difference information.SELECTED DRAWING: Figure 7

Description

本発明の実施形態は、荷役装置の制御装置、及び、荷役装置に関する。 An embodiment of the present invention relates to a control device for a cargo handling device and a cargo handling device.

荷役装置におけるロボットの座標系の較正(キャリブレーション)を実施する場合、従来から、ティーチングペンダントを操作し、例えばロボットのハンドを較正に適した位置に移動させて実施している。 When calibrating the coordinate system of a robot in a cargo handling device, conventionally, the teaching pendant is operated and, for example, the hand of the robot is moved to a position suitable for calibration.

特開平8−171410号公報Japanese Unexamined Patent Publication No. 8-171410

ティーチングペンダントを用いて操作者がハンドを動かすため、較正の精度にバラつきが生じやすい。 Since the operator moves the hand using the teaching pendant, the accuracy of calibration tends to vary.

本発明が解決しようとする課題は、較正の精度のバラつきを抑制可能な荷役装置の制御装置、及び、荷役装置を提供することである。 An object to be solved by the present invention is to provide a control device for a cargo handling device capable of suppressing variations in calibration accuracy, and a cargo handling device.

実施形態による荷役装置の制御装置は、実施形態による荷役装置の制御装置は、対象物である荷物を荷役するロボットの動作を制御するプロセッサと、プロセッサにより制御され、ロボットと通信するインターフェースとを備える。プロセッサは、ロボットを制御し、3次元仮想モデル空間の座標系に基づいて、実空間におけるロボットにより移動させるロボット側治具を実空間の座標系の座標が規定される第1受部に向けて移動させて接触させ、3次元仮想モデル空間の座標系に基づいてロボット側治具を第1受部の所定位置に接触させる際に得る、ロボット側治具の座標と第1受部の座標との第1の差異情報をインターフェースを介して取得し、第1の差異情報に基づいて、3次元仮想モデル空間の座標系を較正する。 The control device of the cargo handling device according to the embodiment includes a processor that controls the operation of the robot that handles the cargo that is the object, and an interface that is controlled by the processor and communicates with the robot. .. The processor controls the robot and, based on the coordinate system of the three-dimensional virtual model space, directs the robot-side jig that is moved by the robot in the real space toward the first receiving unit in which the coordinates of the coordinate system of the real space are defined. The coordinates of the robot side jig and the coordinates of the first receiving part obtained when the robot side jig is brought into contact with a predetermined position of the first receiving part based on the coordinate system of the three-dimensional virtual model space by moving and touching. The first difference information of is acquired through the interface, and the coordinate system of the three-dimensional virtual model space is calibrated based on the first difference information.

図1は、第1実施形態に係る荷役装置を示す概略図である。FIG. 1 is a schematic view showing a cargo handling device according to the first embodiment. 図2は、図1に示す荷役装置を示す概略的なブロック図である。FIG. 2 is a schematic block diagram showing the cargo handling device shown in FIG. 図3は、図1に示すハンドに取り付けられるロボット側治具を示す概略的な斜視図である。FIG. 3 is a schematic perspective view showing a robot-side jig attached to the hand shown in FIG. 図4は、図1に示す荷物ケースの4つの角部にそれぞれ取り付けた、受治具を示す概略的な斜視図である。FIG. 4 is a schematic perspective view showing a receiving jig attached to each of the four corners of the luggage case shown in FIG. 図5は、図4に示す受治具に対して図3に示すロボット側治具を嵌合させようとする状態を示す概略図である。FIG. 5 is a schematic view showing a state in which the robot-side jig shown in FIG. 3 is to be fitted to the receiving jig shown in FIG. 図6は、荷役装置の処理を示す概略的なフローチャートである。FIG. 6 is a schematic flowchart showing the processing of the cargo handling device. 図7は、図6中の座標系の差異を検査する手法を示す概略的なフローチャートである。FIG. 7 is a schematic flowchart showing a method for inspecting the difference in the coordinate system in FIG. 図8は、第2実施形態に係る荷役装置を示す概略図である。FIG. 8 is a schematic view showing a cargo handling device according to the second embodiment. 図9は、第3実施形態に係る荷役装置を示す概略図である。FIG. 9 is a schematic view showing a cargo handling device according to the third embodiment.

以下、図面を参照しながら荷役装置10について説明する。図面は模式的または概念的なものである。 Hereinafter, the cargo handling device 10 will be described with reference to the drawings. The drawings are schematic or conceptual.

[第1実施形態]
図1から図7を用いて第1実施形態に係る荷役装置10について説明する。
[First Embodiment]
The cargo handling device 10 according to the first embodiment will be described with reference to FIGS. 1 to 7.

図1及び図2に示すように、本実施形態に係る荷役装置10は、対象物である荷物を荷役するロボット12と、ロボット12の動作を制御する制御装置(ロボットコントローラ)14と、コンベヤ16と、コンベヤ16に載置され搬送される荷物ケース18と、カメラ(イメージセンサー)20とを有する。 As shown in FIGS. 1 and 2, the cargo handling device 10 according to the present embodiment includes a robot 12 that handles a load that is an object, a control device (robot controller) 14 that controls the operation of the robot 12, and a conveyor 16. A luggage case 18 placed on a conveyor 16 and transported, and a camera (image sensor) 20 are provided.

図1に示すように、ロボット12は、コンベヤ16の側方に配置されている。カメラ20は、コンベヤ16の上方に配置されている。 As shown in FIG. 1, the robot 12 is arranged on the side of the conveyor 16. The camera 20 is arranged above the conveyor 16.

制御装置14の一例は、例えばPCである。図2に示す制御装置14は、本実施形態では、ロボット12、コンベヤ16、及び、カメラ20を制御する。制御装置14は、有線でロボット12、コンベヤ16、及び、カメラ20に接続されていてもよく、無線で接続されていてもよい。 An example of the control device 14 is, for example, a PC. In this embodiment, the control device 14 shown in FIG. 2 controls the robot 12, the conveyor 16, and the camera 20. The control device 14 may be connected to the robot 12, the conveyor 16, and the camera 20 by wire, or may be wirelessly connected.

例えば制御装置14は、ロボット12の専用の制御装置であってもよい。この場合、例えばコンベヤ16及びカメラ20の制御装置は、ロボット12の制御装置14とは別のものを用いる。この場合も、荷役装置10の稼働中、ロボット12の制御装置14と、コンベヤ16及びカメラ20の制御装置とが有線/無線の通信により、互いに情報を送受信し続ける。 For example, the control device 14 may be a dedicated control device for the robot 12. In this case, for example, the control device of the conveyor 16 and the camera 20 is different from the control device 14 of the robot 12. Also in this case, while the cargo handling device 10 is in operation, the control device 14 of the robot 12 and the control devices of the conveyor 16 and the camera 20 continue to send and receive information to and from each other by wired / wireless communication.

図1に示すように、荷物ケース18は、本実施形態では略直方体状の適宜の大きさの箱型である。コンベヤ16は、適宜の荷物Bを入れた荷物ケース18を所定の方向に搬送する。コンベヤ16は、ベルトコンベア、ローラコンベア等、種々のものを用いる。制御装置14は、コンベヤ16の搬送速度を一定としても、可変としてもよい。 As shown in FIG. 1, the luggage case 18 is a box shape having a substantially rectangular parallelepiped shape and an appropriate size in the present embodiment. The conveyor 16 conveys the luggage case 18 containing the appropriate luggage B in a predetermined direction. As the conveyor 16, various conveyors such as a belt conveyor and a roller conveyor are used. The control device 14 may keep the transfer speed of the conveyor 16 constant or variable.

図1及び図2に示すカメラ20は、制御装置14による制御により、コンベヤ16及び荷物ケース18の荷物Bを撮像する。制御装置14は、カメラ20で撮像した画像情報に基づいて、荷物ケース18及び荷物Bの位置、大きさ、及び、形状を認識する。 The camera 20 shown in FIGS. 1 and 2 images the luggage B of the conveyor 16 and the luggage case 18 under the control of the control device 14. The control device 14 recognizes the positions, sizes, and shapes of the luggage case 18 and the luggage B based on the image information captured by the camera 20.

ロボット12に係る演算は、制御装置14で行う。制御装置14は、ロボット12と制御信号を送受信する。 The calculation related to the robot 12 is performed by the control device 14. The control device 14 transmits and receives control signals to and from the robot 12.

図1に示すように、ロボット12は、基台32と、基台32から上方に延びる多関節アーム(ロボット12の可動部)34とを有する。基台32は、例えば工場などの床面に対する移動が防止されるように、床面に支持又は固定されている。多関節アーム34は、その先端にハンド36を有する。このため、本実施形態では、ハンド36はアーム34の一部である。ロボット12の形態は、ピッキング動作を行う垂直多関節型ロボットであっても、別のものであってもよい。 As shown in FIG. 1, the robot 12 has a base 32 and an articulated arm (movable part of the robot 12) 34 extending upward from the base 32. The base 32 is supported or fixed to the floor surface so as to prevent movement to the floor surface of, for example, a factory. The articulated arm 34 has a hand 36 at its tip. Therefore, in this embodiment, the hand 36 is a part of the arm 34. The form of the robot 12 may be a vertical articulated robot that performs a picking operation, or another robot 12.

ロボット12は、床面に支持又は固定されるほか、天井又は適宜のフレーム等から吊り下げられていてもよい。 The robot 12 may be supported or fixed to the floor surface, or may be suspended from the ceiling or an appropriate frame or the like.

図1及び図2に示すロボット12のアーム34は、制御装置14からの信号に基づいて、コンベヤ16及びカメラ20と連動して動作する。ハンド36も、制御装置14からの信号に基づいて、コンベヤ16及びカメラ20と連動して動作する。 The arm 34 of the robot 12 shown in FIGS. 1 and 2 operates in conjunction with the conveyor 16 and the camera 20 based on the signal from the control device 14. The hand 36 also operates in conjunction with the conveyor 16 and the camera 20 based on the signal from the control device 14.

制御装置14は、例えばコンベヤ16に載置され運ばれる荷物ケース18の画像情報をカメラ20を通して取得し、信号処理により認識し、認識結果に基づいて、ロボット12を動かす。制御装置14は、荷物ケース18に入れられた荷物Bをピッキングし、例えば荷物ケース18とは異なる所望の位置に載置する。 For example, the control device 14 acquires the image information of the luggage case 18 mounted on the conveyor 16 and carried through the camera 20, recognizes it by signal processing, and moves the robot 12 based on the recognition result. The control device 14 picks the luggage B put in the luggage case 18 and places it in a desired position different from, for example, the luggage case 18.

図1及び図2に示すように、荷役装置10は、ロボット側治具(較正用の可動マーカ)50と、複数の受治具(較正用の規定マーカ)52,54,56,58とを有する。ここでは荷役装置10が4つの受治具52,54,56,58を有する例について説明する。受治具の数は、複数であることが好適である。使用する受治具の数が多ければ多いほど、後述する較正の精度を上げることができる。 As shown in FIGS. 1 and 2, the cargo handling device 10 includes a robot-side jig (movable marker for calibration) 50 and a plurality of receiving jigs (specified markers for calibration) 52, 54, 56, 58. Have. Here, an example in which the cargo handling device 10 has four receiving jigs 52, 54, 56, 58 will be described. It is preferable that the number of receiving jigs is a plurality. The greater the number of receiving jigs used, the higher the accuracy of calibration described later.

ロボット側治具50は、例えばハンド36に固定される。図3に示すように、ロボット側治具50は、ハンド36に取り付けられる取付治具62と、取付治具62に固定又は一体化された例えば凸状の嵌合部64とを有する。ロボット側治具50の取付治具62は、ハンド36に対して例えばネジの締結により固定される。ハンド36を構成する部品自体にロボット側治具50が形成されていてもよい。凸状の嵌合部64は、本実施形態では円錐状である。嵌合部64は、円錐のほか、円錐台、四角錐などの多角錐、四角錐台などの多角錐台等、適宜の凸状に形成される。 The robot side jig 50 is fixed to, for example, the hand 36. As shown in FIG. 3, the robot-side jig 50 has a mounting jig 62 attached to the hand 36 and, for example, a convex fitting portion 64 fixed or integrated with the mounting jig 62. The mounting jig 62 of the robot-side jig 50 is fixed to the hand 36 by, for example, fastening a screw. The robot-side jig 50 may be formed on the component itself that constitutes the hand 36. The convex fitting portion 64 has a conical shape in this embodiment. In addition to the cone, the fitting portion 64 is formed in an appropriate convex shape such as a truncated cone, a polygonal pyramid such as a quadrangular pyramid, or a polygonal pyramid such as a quadrangular pyramid.

図4には、受治具(受部)52,54,56,58のうち第1受治具52を代表して示す。図1に示すように、受治具52,54,56,58は、例えば、荷物ケース18の上端18aの4つの角部22,24,26,28にそれぞれ固定される。図4に示すように、受治具52は、取付治具72と、取付治具72の上側に固定又は一体化された凹状の嵌合部74とを有する。取付治具72はそれぞれ略L字状の溝を有し、荷物ケース18の上端18aの各角部22,24,26,28にそれぞれ固定される。凹状の嵌合部74は、本実施形態では円錐状にくり抜かれた形状を持つ。受治具54,56,58は、受治具52と同じ形状及び大きさに形成されている。嵌合部74は、円錐のほか、円錐台、四角錐などの多角錐、四角錐台などの多角錐台等、ロボット側治具50の凸状の嵌合部64が嵌合可能な適宜の凹状に形成される。 FIG. 4 shows the first receiving jig 52 as a representative of the receiving jigs (receiving portions) 52, 54, 56, 58. As shown in FIG. 1, the receiving jigs 52, 54, 56, 58 are fixed to, for example, the four corners 22, 24, 26, 28 of the upper end 18a of the luggage case 18, respectively. As shown in FIG. 4, the receiving jig 52 has a mounting jig 72 and a concave fitting portion 74 fixed or integrated on the upper side of the mounting jig 72. Each of the mounting jigs 72 has a substantially L-shaped groove, and is fixed to each corner portion 22, 24, 26, 28 of the upper end 18a of the luggage case 18, respectively. The concave fitting portion 74 has a conical hollow shape in the present embodiment. The receiving jigs 54, 56, and 58 are formed to have the same shape and size as the receiving jig 52. In addition to the cone, the fitting portion 74 is an appropriate fitting portion 64 to which the convex fitting portion 64 of the robot side jig 50 can be fitted, such as a truncated cone, a polygonal pyramid such as a square pyramid, and a polygonal pyramid such as a square pyramid. It is formed in a concave shape.

ロボット側治具50の凸状の嵌合部64の傾斜面は、受治具52,54,56,58の凹状の嵌合部74の傾斜面に接触可能に形成されている。このため、図5に示すように、受治具52,54,56,58に対してロボット側治具50が嵌合され得る。ロボット側治具50と受治具52とが嵌合した状態のとき、ロボット側治具50及び受治具52の位置が同一であり、実空間の座標系の座標が同一である、とする。 The inclined surface of the convex fitting portion 64 of the robot side jig 50 is formed so as to be in contact with the inclined surface of the concave fitting portion 74 of the receiving jigs 52, 54, 56, 58. Therefore, as shown in FIG. 5, the robot-side jig 50 can be fitted to the receiving jigs 52, 54, 56, and 58. When the robot side jig 50 and the receiving jig 52 are fitted, the positions of the robot side jig 50 and the receiving jig 52 are the same, and the coordinates of the coordinate system in the real space are the same. ..

ロボット側治具50が凸状の嵌合部64を有する代わりに、凹状の嵌合部を有し、受治具52,54,56,58が凹状の嵌合部74を有する代わりに、凸状の嵌合部を有してもよい。 Instead of the robot-side jig 50 having a convex fitting portion 64, it has a concave fitting portion, and the receiving jigs 52, 54, 56, 58 have a convex fitting portion 74, instead of having a convex fitting portion 74. It may have a shaped fitting portion.

荷物ケース18の上端18aの4つの角部22,24,26,28に載置された受治具52,54,56,58は、カメラ20で荷物ケース18をコンベヤ16の上方から撮影した際に、荷物ケース18を認識するための特徴点となり得る。 The receiving jigs 52, 54, 56, 58 mounted on the four corners 22, 24, 26, 28 of the upper end 18a of the luggage case 18 are when the luggage case 18 is photographed from above the conveyor 16 by the camera 20. In addition, it can be a feature point for recognizing the luggage case 18.

図2に示すように、制御装置14は、ロボット12の動作を制御するプロセッサ102と、プロセッサ102に接続されたメモリ104と、複数のインターフェース106とを有する。ここでのメモリ104は、例えばRAM及びROMを含む。メモリ104は、ストレージなどの不揮発性記憶装置を含み得る。 As shown in FIG. 2, the control device 14 has a processor 102 that controls the operation of the robot 12, a memory 104 connected to the processor 102, and a plurality of interfaces 106. The memory 104 here includes, for example, a RAM and a ROM. The memory 104 may include a non-volatile storage device such as storage.

プロセッサ102には、インターフェース106を介して例えばストレージ112が接続されている。プロセッサ102は、それぞれインターフェース106を介して、プロセッサ102に各種の信号の入力を行う入力部122と、プロセッサ102からの信号に基づいて各種の情報を表示する表示部124とを有する。入力部122及び表示部124は、例えばタッチパネル126等を用いることで、一体化し得る。タッチパネル126と、制御装置14とは一体化し得る。 For example, a storage 112 is connected to the processor 102 via the interface 106. The processor 102 has an input unit 122 that inputs various signals to the processor 102 via the interface 106, and a display unit 124 that displays various information based on the signals from the processor 102. The input unit 122 and the display unit 124 can be integrated by using, for example, a touch panel 126 or the like. The touch panel 126 and the control device 14 can be integrated.

プロセッサ102は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)などで構成される。制御装置14は、複数のプロセッサ102を有していてもよい。すなわち、制御装置14は、1又は複数のプロセッサ102を有し得る。本実施形態では、プロセッサ102は、図2に示すように、CPUを用いるものとして説明する。
プロセッサ102は、CPUの代わりに、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)のいずれか、又は、これらの組み合わせで構成されていてもよい。
The processor 102 is composed of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and the like. The control device 14 may have a plurality of processors 102. That is, the control device 14 may have one or more processors 102. In the present embodiment, the processor 102 will be described as using a CPU as shown in FIG.
The processor 102 may be configured by any one of ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), FPGA (Field Programmable Gate Array), or a combination thereof, instead of the CPU.

ストレージ112は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの不揮発性の記憶装置で構成される。 The storage 112 is composed of, for example, a non-volatile storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

プロセッサ102は、メモリ104及び/又はストレージ112に格納した各種プログラムを読み出して、実行することで、制御対象に応じた制御、及び、各種の処理を実現する。メモリ104及び/又はストレージ112には、基本的な機能を実現するためのシステムプログラムに加えて、制御対象のロボット12に応じて作成されるプログラムが格納されている。 The processor 102 reads and executes various programs stored in the memory 104 and / or the storage 112 to realize control according to the control target and various processes. In the memory 104 and / or the storage 112, in addition to the system program for realizing the basic function, a program created according to the robot 12 to be controlled is stored.

インターフェース106は、ロボット12、コンベヤ16、カメラ20、ストレージ112、タッチパネル126等の各要素を有線で接続してもよく、無線で接続してもよい。 The interface 106 may connect elements such as the robot 12, the conveyor 16, the camera 20, the storage 112, and the touch panel 126 by wire or wirelessly.

インターフェース106は、プロセッサ102により制御され、ロボット12と通信する。プロセッサ102には、インターフェース106を介して、ロボット12のアーム34が接続される。アーム34は、1又は複数のモータ42を有する。アーム34のハンド36は、さらに、1又は複数のモータ44を有する。ハンド36の先端付近には、力覚センサ46が取り付けられている。力覚センサ46で検知した信号は、プロセッサ102に入力され、処理される。力覚センサ46は、ハンド36を含むアーム34の制御に使用される。これらモータ42,44及び力覚センサ46は、インターフェース106を介してプロセッサ102に接続されている。 The interface 106 is controlled by the processor 102 and communicates with the robot 12. The arm 34 of the robot 12 is connected to the processor 102 via the interface 106. The arm 34 has one or more motors 42. The hand 36 of the arm 34 further comprises one or more motors 44. A force sensor 46 is attached near the tip of the hand 36. The signal detected by the force sensor 46 is input to the processor 102 and processed. The force sensor 46 is used to control the arm 34 including the hand 36. The motors 42, 44 and the force sensor 46 are connected to the processor 102 via the interface 106.

ロボット12は、例えば、基台32の適宜の位置を、XYZ直交座標系又は極座標系の原点とする。原点の位置は、固定されているものとする。これらの情報は、メモリ104及び/又はストレージ112に格納されている。 The robot 12 uses, for example, an appropriate position of the base 32 as the origin of the XYZ Cartesian coordinate system or the polar coordinate system. The position of the origin shall be fixed. This information is stored in the memory 104 and / or the storage 112.

ロボット12は、基台32の座標系のほか、ハンド36を含むアーム34の各関節(モータ42,44)に座標系を設定することができる。本実施形態では、これら各関節の座標系をひとまとめにして、3次元仮想モデル空間の座標系と称する。3次元仮想モデル空間は、ロボット12をはじめ、作業対象物、壁、コンベヤ16、カメラ20を含むセンサ、その他障害物など、荷役装置10内に存在する全ての物体が配置され、設計値から求められる仮想的に作成された空間を指す。座標系を含む3次元仮想モデル空間の情報は、メモリ104及び/又はストレージ112に格納されている。 In addition to the coordinate system of the base 32, the robot 12 can set the coordinate system for each joint (motors 42, 44) of the arm 34 including the hand 36. In the present embodiment, the coordinate systems of these joints are collectively referred to as the coordinate system of the three-dimensional virtual model space. In the three-dimensional virtual model space, all objects existing in the cargo handling device 10, such as the robot 12, the work object, the wall, the conveyor 16, the sensor including the camera 20, and other obstacles, are arranged and obtained from the design value. Refers to a virtually created space. The information of the three-dimensional virtual model space including the coordinate system is stored in the memory 104 and / or the storage 112.

プロセッサ102は、3次元仮想モデル空間の情報を基に、ロボット12のアーム34を制御する。ロボット12のハンド36を含むアーム34は、プログラムにしたがってプロセッサ102から出力される信号により、3次元仮想モデル空間の座標系に基づいて位置及び姿勢が制御される。 The processor 102 controls the arm 34 of the robot 12 based on the information in the three-dimensional virtual model space. The position and orientation of the arm 34 including the hand 36 of the robot 12 are controlled based on the coordinate system of the three-dimensional virtual model space by the signal output from the processor 102 according to the program.

ここで、実空間の座標系と、3次元仮想モデル空間の座標系との原点は一致するものとする。ロボット12の各関節における座標系は、床面に対するロボット12の固定位置による誤差、ロボット12の組み立て誤差、その他の要因により、ズレが生じる可能性がある。このため、実空間の座標系及び3次元仮想モデル空間の座標系の原点に対する座標は、ズレが生じる可能性がある。 Here, it is assumed that the origins of the coordinate system of the real space and the coordinate system of the three-dimensional virtual model space are the same. The coordinate system at each joint of the robot 12 may be displaced due to an error due to the fixed position of the robot 12 with respect to the floor surface, an assembly error of the robot 12, and other factors. Therefore, the coordinates of the coordinate system in the real space and the coordinate system in the three-dimensional virtual model space with respect to the origin may be deviated.

プロセッサ102は、3次元仮想モデル空間の座標系に関する情報を、較正の実施により更新し得る。プロセッサ102は、3次元仮想モデル空間の座標系に関する情報について、更新前(較正の実施前)の情報、及び、更新後(較正の実施後)の情報の両方をメモリ104及び/又はストレージ112に格納してもよい。プロセッサ102は、3次元仮想モデル空間の座標系に関する情報について、更新後の情報のみをメモリ104及び/又はストレージ112に格納してもよい。 Processor 102 may update information about the coordinate system in the three-dimensional virtual model space by performing calibration. The processor 102 transfers both the information before the update (before the calibration) and the information after the update (after the calibration) to the memory 104 and / or the storage 112 regarding the information about the coordinate system of the three-dimensional virtual model space. May be stored. The processor 102 may store only the updated information about the coordinate system of the three-dimensional virtual model space in the memory 104 and / or the storage 112.

ロボット12は、例えば制御装置14のメモリ104、又は、制御装置14に接続されたストレージ112に格納されたプログラムにしたがって動作する。ハンド36を含むアーム34は、プログラムに基づくプロセッサ102からの信号により、3次元仮想モデル空間の座標系にしたがって、適宜の位置に動かされる。 The robot 12 operates according to, for example, a program stored in the memory 104 of the control device 14 or the storage 112 connected to the control device 14. The arm 34 including the hand 36 is moved to an appropriate position according to the coordinate system of the three-dimensional virtual model space by the signal from the processor 102 based on the program.

プロセッサ102は、プログラムにしたがって、ロボット12のハンド36を含むアーム34がピッキングの対象である荷物ケース18内の荷物Bとは異なる適宜の物体に当たったこと、ハンド36を用いて荷物ケース18内の荷物Bを掴むことができなかったことなど、ロボット12に対するイベントの発生情報を取得し、メモリ104及び/又はストレージ112に格納する。プロセッサ102は、一定の時間経過を1つのイベントとし、メモリ104及び/又はストレージ112に格納してもよい。プロセッサ102は、プログラムにしたがって、これらのイベント情報に基づいて、較正を実施する。 According to the program, the processor 102 hits an appropriate object different from the luggage B in the luggage case 18 to be picked by the arm 34 including the hand 36 of the robot 12, and the processor 102 uses the hand 36 in the luggage case 18. The information on the occurrence of an event for the robot 12, such as the failure to grab the baggage B of the robot 12, is acquired and stored in the memory 104 and / or the storage 112. The processor 102 may use the elapse of a certain time as one event and store it in the memory 104 and / or the storage 112. The processor 102 performs calibration according to the program based on these event information.

イベント情報は、その他、ロボット12、コンベヤ16、又は、カメラ20の新規設置、ロボット12、コンベヤ16、又は、カメラ20の異常、ロボット12を動かす各種のモータ42,44の異常、さらには、力覚センサ46の異常等がある。 The event information includes other information such as the new installation of the robot 12, the conveyor 16, or the camera 20, the abnormality of the robot 12, the conveyor 16, or the camera 20, the abnormality of the various motors 42, 44 that move the robot 12, and the force. There is an abnormality in the sensor 46.

荷役装置10のロボット12では、所望の設置位置に対して実際の設置位置に誤差が生じる可能性がある。ロボット12は、運用中に例えば振動等が原因で位置ズレが生じる可能性がある。このため、荷役装置10では、ロボット12の制御に係る3次元仮想モデル空間における座標系を、実空間における座標系に一致させる較正を行う必要がある。以後、「較正の実施」とは、3次元仮想モデル空間における座標系を、実空間における座標系に一致又は略一致させることをいう。 In the robot 12 of the cargo handling device 10, there is a possibility that an error may occur in the actual installation position with respect to the desired installation position. The robot 12 may be displaced due to vibration or the like during operation. Therefore, in the cargo handling device 10, it is necessary to perform calibration so that the coordinate system in the three-dimensional virtual model space related to the control of the robot 12 matches the coordinate system in the real space. Hereinafter, "calibration" means that the coordinate system in the three-dimensional virtual model space matches or substantially matches the coordinate system in the real space.

較正は、荷役装置10のより多数の箇所に対して実施することが好適である。較正は、工場出荷時に一度実施すればよいものではなく、定期的、又は、所定のイベント発生時に実施する。 Calibration is preferably performed on a larger number of locations on the cargo handling device 10. Calibration does not have to be performed once at the time of shipment from the factory, but is performed regularly or when a predetermined event occurs.

図1に示す本実施形態における荷役装置10は、例えば、荷物ケース18の4つの角部22,24,26,28それぞれを用いて、較正を実施する。このため、本実施形態に係る荷役装置10の較正の実施は、極力人間の手を介さず、速く、且つ効率よく行われることが望ましい。 The cargo handling device 10 according to the present embodiment shown in FIG. 1 performs calibration using, for example, each of the four corners 22, 24, 26, and 28 of the luggage case 18. Therefore, it is desirable that the calibration of the cargo handling device 10 according to the present embodiment is performed quickly and efficiently without human intervention as much as possible.

上述したように、ロボット12の基台32の適宜の位置を、実空間の座標系(XYZ直交座標系又は極座標系)の原点とする。ロボット12の基台32の適宜の位置を、3次元仮想モデル空間における座標系(XYZ直交座標系又は極座標系)の原点とする。原点の位置は、固定されているものとする。 As described above, the appropriate position of the base 32 of the robot 12 is set as the origin of the real space coordinate system (XYZ Cartesian coordinate system or polar coordinate system). An appropriate position of the base 32 of the robot 12 is set as the origin of the coordinate system (XYZ Cartesian coordinate system or polar coordinate system) in the three-dimensional virtual model space. The position of the origin shall be fixed.

ここでは、説明の簡略化のため、ロボット側治具50がハンド36に予め固定されているものとする。すなわち、ハンド36は、ロボット側治具50が固定された状態で、荷物Bをピックアップする。また、第1受治具52、第2受治具54、第3受治具56及び第4受治具58は荷物ケース18の4つの角部22,24,26,28にそれぞれ予め固定されているものとする。 Here, for the sake of simplification of the description, it is assumed that the robot side jig 50 is fixed to the hand 36 in advance. That is, the hand 36 picks up the luggage B with the robot side jig 50 fixed. Further, the first receiving jig 52, the second receiving jig 54, the third receiving jig 56 and the fourth receiving jig 58 are fixed in advance to the four corners 22, 24, 26 and 28 of the luggage case 18, respectively. It is assumed that it is.

コンベヤ16に荷物ケース18が載置されて適宜の位置に搬送され、停止した状態で、プロセッサ102は、カメラ20により撮像される荷物ケース18の上端18aの4つの受治具(第1受治具52、第2受治具54、第3受治具56及び第4受治具58)で、各受治具の実空間の座標系の座標を認識可能であるものとする。 In a state where the luggage case 18 is placed on the conveyor 16 and transported to an appropriate position and stopped, the processor 102 receives four receiving jigs (first receiving jigs) at the upper end 18a of the luggage case 18 imaged by the camera 20. It is assumed that the tool 52, the second receiving jig 54, the third receiving jig 56, and the fourth receiving jig 58) can recognize the coordinates of the coordinate system in the real space of each receiving jig.

本実施形態では、荷役装置10は、ロボット12の3次元仮想モデル空間の座標系が、実空間の座標系と一致又は略一致している状態を考慮する。ここでの較正は、例えば0mmから数センチメートルまでの間の僅かな差異を調整するものとする。座標系同士のズレが0mmである場合、座標系同士に実際にズレがあるもの、実際にズレがないものの両方を含む。 In the present embodiment, the cargo handling device 10 considers a state in which the coordinate system of the three-dimensional virtual model space of the robot 12 matches or substantially matches the coordinate system of the real space. The calibration here shall adjust for slight differences, for example between 0 mm and a few centimeters. When the deviation between the coordinate systems is 0 mm, both the one with the actual deviation between the coordinate systems and the one without the actual deviation are included.

本実施形態に係る荷役装置10の動作について図6及び図7を用いて説明する。ここでは主に、制御装置14のプロセッサ102について説明する。 The operation of the cargo handling device 10 according to the present embodiment will be described with reference to FIGS. 6 and 7. Here, the processor 102 of the control device 14 will be mainly described.

例えば、ロボット12の設置時や、荷役装置10の電源投入時、プロセッサ102は、荷役装置10のロボット12の3次元仮想モデル空間の座標系を実空間の座標系に一致させる較正を実施する条件を満たすか否か、判断する(ステップS1)。プロセッサ102は、具体的には、較正を実施する必要があるか否か、判断する。 For example, when the robot 12 is installed or when the cargo handling device 10 is turned on, the processor 102 performs calibration to match the coordinate system of the robot 12 of the cargo handling device 10 in the three-dimensional virtual model space with the coordinate system of the real space. It is determined whether or not the condition is satisfied (step S1). Specifically, the processor 102 determines whether or not calibration needs to be performed.

ここで、ステップS1において、較正を実施する条件を満たす場合を4つ例示する。 Here, in step S1, four cases where the conditions for performing calibration are satisfied will be illustrated.

1.ロボット12の据え付け及び電源投入時
ロボット12を据え付けた際、及び、電源を投入した際には、ロボット12の設置誤差を吸収するために、較正の実施が必要である。
1. 1. When the robot 12 is installed and the power is turned on When the robot 12 is installed and when the power is turned on, it is necessary to carry out calibration in order to absorb the installation error of the robot 12.

2.ロボット12が何かに接触したことを検知したとき
ロボット12が、荷物ケース18の側面や縁、その他、荷役装置10内に存在する何らかに接触した場合、衝突前と衝突後とで設置位置にズレが生じる可能性が考えられる。その位置ズレを解消するために、較正の実施が必要である。
2. When the robot 12 detects that it has touched something If the robot 12 touches the side surface or edge of the luggage case 18 or anything else existing in the cargo handling device 10, the installation position is before and after the collision. There is a possibility that the deviation will occur. It is necessary to carry out calibration in order to eliminate the misalignment.

3.ピッキングの失敗が連続したとき
荷役装置10の運用時、例えば振動等が原因となり、ロボット12、コンベヤ16、カメラ20の相対的な設置位置にズレが生じる可能性がある。例えば荷物Bを荷物ケース18からピッキングする場合、荷物Bのピッキングに失敗することが起こりやすくなる。例えば2回連続など、複数回連続でピッキングを失敗した場合、位置ズレを解消するために、較正の実施が必要である。
3. 3. When picking failures are continuous During operation of the cargo handling device 10, for example, vibration may cause a deviation in the relative installation positions of the robot 12, the conveyor 16, and the camera 20. For example, when the luggage B is picked from the luggage case 18, the picking of the luggage B is likely to fail. If picking fails a plurality of times in a row, for example, twice in a row, it is necessary to perform calibration in order to eliminate the misalignment.

4.所定の時間が経過したとき
荷役装置10の運用時、時間の経過とともに、ロボット12、コンベヤ16、カメラ20の相対的な設置位置にズレが生じる可能性がある。このような位置ズレが生じないようにするために、定期的に較正の実施が必要である。
4. When a predetermined time has passed During the operation of the cargo handling device 10, the relative installation positions of the robot 12, the conveyor 16, and the camera 20 may shift with the passage of time. In order to prevent such misalignment, it is necessary to carry out calibration on a regular basis.

プロセッサ102が、較正を実施する条件を満たしていると判断した場合(ステップS1−Yes)、プロセッサ102は、較正を実施する前段階として、実空間における座標系の適宜の座標に対する、3次元仮想モデル空間における座標系の適宜の座標の差異を算出する(ステップS2)。すなわち、プロセッサ102は、実空間における座標系の適宜の座標に対する、3次元仮想モデル空間における座標系の適宜の座標の差異を検査する。 When the processor 102 determines that the condition for performing the calibration is satisfied (step S1-Yes), the processor 102 is a three-dimensional virtual object with respect to appropriate coordinates of the coordinate system in the real space as a pre-stage for performing the calibration. The difference in the appropriate coordinates of the coordinate system in the model space is calculated (step S2). That is, the processor 102 inspects the difference between the appropriate coordinates of the coordinate system in the real space and the appropriate coordinates of the coordinate system in the three-dimensional virtual model space.

プロセッサ102は、ステップS2における検査を実施した後、ステップS2での算出結果に基づいて、較正を実施し新たな3次元仮想モデル空間の座標系を設定するか否か判断する(ステップS3)。較正を実施する場合(ステップS3−Yes)、3次元仮想モデル空間の座標系の情報を更新する。3次元仮想モデル空間の座標系の較正を実施する場合(ステップS3−Yes)、通常運転(ステップS4)を行う前に実施する。 After performing the inspection in step S2, the processor 102 performs calibration based on the calculation result in step S2 and determines whether or not to set the coordinate system of the new three-dimensional virtual model space (step S3). When performing calibration (step S3-Yes), the information of the coordinate system of the three-dimensional virtual model space is updated. When the coordinate system of the three-dimensional virtual model space is calibrated (step S3-Yes), it is performed before the normal operation (step S4) is performed.

較正の実施条件を満たしていない場合(ステップS1−No)、プロセッサ102は、通常運転(ステップS4)を行う。 When the calibration execution condition is not satisfied (step S1-No), the processor 102 performs a normal operation (step S4).

ここで、通常運転(ステップS4)とは、例えば、以下の一連の動作をいう。プロセッサ102は、コンベヤ16で搬送された荷物ケース18及び荷物ケース18内の荷物Bをカメラ20での撮影により認識する。プロセッサ102は、認識した荷物Bをロボット12のアーム34を動かし、ハンド36で荷物Bをピックアップさせる。プロセッサ102は、ハンド36で荷物Bをつかんだ状態でアーム34を適宜に移動させ、荷物Bを所望の位置に配置し、ハンド36から荷物Bを放す。プロセッサ102は、アーム34を初期位置など、適宜の位置に移動させる。 Here, the normal operation (step S4) means, for example, the following series of operations. The processor 102 recognizes the luggage case 18 conveyed by the conveyor 16 and the luggage B in the luggage case 18 by taking a picture with the camera 20. The processor 102 moves the arm 34 of the robot 12 with the recognized luggage B, and causes the hand 36 to pick up the luggage B. The processor 102 appropriately moves the arm 34 while grasping the luggage B with the hand 36, arranges the luggage B at a desired position, and releases the luggage B from the hand 36. The processor 102 moves the arm 34 to an appropriate position such as an initial position.

図7に示すように、ステップS2における検査は、以下のように実施する。 As shown in FIG. 7, the inspection in step S2 is performed as follows.

プロセッサ102は、コンベヤ16を動かし、荷物ケース18を適宜の位置に移動させる。プロセッサ102は、カメラ20で荷物ケース18の受治具52,54,56,58を撮像可能な位置で、荷物ケース18を停止させる(ステップS101)。 The processor 102 moves the conveyor 16 to move the luggage case 18 to an appropriate position. The processor 102 stops the luggage case 18 at a position where the camera 20 can image the receiving jigs 52, 54, 56, 58 of the luggage case 18 (step S101).

プロセッサ102は、カメラ20で荷物ケース18の受治具52,54,56,58を撮像し、受治具52,54,56,58の実空間の座標系の座標に関する情報を取得する(ステップS102)。プロセッサ102は、受治具52,54,56,58の実空間の座標系の座標に関する情報を、メモリ104及び/又はストレージ112に格納する。 The processor 102 images the receiving jigs 52, 54, 56, 58 of the luggage case 18 with the camera 20, and acquires information on the coordinates of the real space coordinate system of the receiving jigs 52, 54, 56, 58 (step). S102). The processor 102 stores information about the coordinates of the real space coordinate system of the receiving jigs 52, 54, 56, and 58 in the memory 104 and / or the storage 112.

プロセッサ102は、アーム34を動かし、ハンド36に取り付けたロボット側治具50を第1受治具52に向けて移動させる(ステップS103)。このときのロボット側治具50の目標位置(第1の目標位置)は、3次元仮想モデル空間の座標系の座標である。このとき、プロセッサ102は、力覚センサ46を用いた力制御により、ハンド36を含むアーム34を制御する。 The processor 102 moves the arm 34 to move the robot-side jig 50 attached to the hand 36 toward the first receiving jig 52 (step S103). The target position (first target position) of the robot-side jig 50 at this time is the coordinates of the coordinate system of the three-dimensional virtual model space. At this time, the processor 102 controls the arm 34 including the hand 36 by force control using the force sensor 46.

ロボット12における力制御とは、ロボット12のハンド36に取り付けられた力覚センサ46からの応力(応力の負荷方向を含む)及び/又はその他の情報により、プロセッサ102が、ハンド36を含むアーム34各軸の駆動モータ42,44の電流をコントロールして、適当なトルクを発生させる制御方法のことである。ロボット12における力制御により、プロセッサ102は、接触面に対してハンド36を滑らかに倣う動作を実現できる。 The force control in the robot 12 means that the processor 102 uses the arm 34 including the hand 36 based on the stress (including the stress load direction) and / or other information from the force sensor 46 attached to the hand 36 of the robot 12. This is a control method for generating an appropriate torque by controlling the currents of the drive motors 42 and 44 of each shaft. By the force control in the robot 12, the processor 102 can realize the operation of smoothly imitating the hand 36 with respect to the contact surface.

ハンド36に力覚センサ46を配置しない場合、前述同等の情報を、ロボット12のアーム34の制御にフィードバックすることは既存技術において可能であり、その場合、力覚センサ46は、本実施形態に係る構成から除かれてもよい。 When the force sensor 46 is not arranged on the hand 36, it is possible in the existing technique to feed back the same information as described above to the control of the arm 34 of the robot 12, in which case the force sensor 46 is in the present embodiment. It may be excluded from such a configuration.

プロセッサ102は、力覚センサ46を用いた力制御を行いながら、ハンド36に取り付けたロボット側治具50を第1受治具52に接触させる(ステップS104)。
プロセッサ102は、ロボット側治具50を3次元仮想モデル空間の座標系において、実空間の座標系の座標と同じ数値の座標(第1の目標位置)まで移動させたとき、ロボット側治具50が第1受治具52に接触しない場合がある(ステップS104−No)。プロセッサ102は、力覚センサ46を用いた力制御によって、ロボット側治具50が第1受治具52に接触するまで、ロボット側治具50を移動させる。このとき、プロセッサ102は、力制御により、実空間の第1受治具52の位置、すなわち、荷物ケース18を動かさないように、ハンド36を移動させる。
The processor 102 brings the robot-side jig 50 attached to the hand 36 into contact with the first receiving jig 52 while performing force control using the force sensor 46 (step S104).
When the processor 102 moves the robot-side jig 50 to the coordinates (first target position) of the same numerical values as the coordinates of the real-space coordinate system in the coordinate system of the three-dimensional virtual model space, the robot-side jig 50 May not come into contact with the first receiving jig 52 (step S104-No). The processor 102 moves the robot-side jig 50 by force control using the force sensor 46 until the robot-side jig 50 comes into contact with the first receiving jig 52. At this time, the processor 102 moves the hand 36 by force control so as not to move the position of the first receiving jig 52 in the real space, that is, the luggage case 18.

図5に示すように、プロセッサ102は、ロボット12の動作を制御し、ロボット側治具50の凸状の嵌合部64を、第1受治具52の凹状の嵌合部74に嵌合させる。プロセッサ102は、ロボット側治具50を第1受治具52に接触させたことを検知した場合(ステップS104−Yes)、力覚センサ46を使用した力制御を行うことで、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に接触させる。プロセッサ102は、力覚センサ46を使用した力制御を行うことで、ロボット側治具50の凸状の嵌合部64を、受治具52の凹状の嵌合部74に収納する。プロセッサ102は、力覚センサ46で接触圧力を検知しながら、ロボット側治具50を第1受治具52に押圧する(ステップS105)。 As shown in FIG. 5, the processor 102 controls the operation of the robot 12, and the convex fitting portion 64 of the robot side jig 50 is fitted into the concave fitting portion 74 of the first receiving jig 52. Let me. When the processor 102 detects that the robot-side jig 50 is in contact with the first receiving jig 52 (step S104-Yes), the processor 102 performs force control using the force sensor 46 to control the robot-side jig. The convex fitting portion 64 of 50 is brought into contact with the fitting portion 74 of the first receiving jig 52. The processor 102 stores the convex fitting portion 64 of the robot side jig 50 in the concave fitting portion 74 of the receiving jig 52 by performing force control using the force sensor 46. The processor 102 presses the robot-side jig 50 against the first receiving jig 52 while detecting the contact pressure with the force sensor 46 (step S105).

プロセッサ102は、例えば力覚センサ46により、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力を検出する。プロセッサ102は、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力が所定の圧力に到達したか否か判断する(ステップS106)。 The processor 102 detects the pressure when the convex fitting portion 64 of the robot side jig 50 is fitted to the fitting portion 74 of the first receiving jig 52 by, for example, the force sensor 46. The processor 102 determines whether or not the pressure when the convex fitting portion 64 of the robot side jig 50 is fitted to the fitting portion 74 of the first receiving jig 52 has reached a predetermined pressure. (Step S106).

プロセッサ102は、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力が所定の圧力に到達していないと判断した場合(ステップS106−No)、力覚センサ46で接触圧力を検知しながら、ロボット側治具50を第1受治具52に押圧する(ステップS105)。このとき、プロセッサ102は、第1受治具52の位置(実空間の座標系の座標)を移動させずに、力覚センサ46により、ロボット側治具50の凸状の嵌合部64を第1受治具52の凹状の嵌合部74に嵌合させる。 The processor 102 has determined that the pressure when the convex fitting portion 64 of the robot side jig 50 is fitted to the fitting portion 74 of the first receiving jig 52 has not reached a predetermined pressure. In the case (step S106-No), the robot side jig 50 is pressed against the first receiving jig 52 while detecting the contact pressure with the force sensor 46 (step S105). At this time, the processor 102 does not move the position of the first receiving jig 52 (coordinates of the coordinate system in the real space), but uses the force sensor 46 to press the convex fitting portion 64 of the robot side jig 50. It is fitted into the concave fitting portion 74 of the first receiving jig 52.

プロセッサ102が、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力が所定の圧力に到達したと判断した場合(ステップS106−Yes)、プロセッサ102は、ロボット側治具50の位置(第2の目標位置)が、第1受治具52の位置に一致していると判断する。 When the processor 102 determines that the pressure when the convex fitting portion 64 of the robot side jig 50 is fitted to the fitting portion 74 of the first receiving jig 52 has reached a predetermined pressure ( Step S106-Yes), the processor 102 determines that the position of the robot-side jig 50 (second target position) coincides with the position of the first receiving jig 52.

ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力は、力覚センサ46により検出された情報を基にプロセッサ102により算出される。プロセッサ102は、力覚センサ46により検出された情報がある値に到達したときに嵌合したと判断する。 The pressure when the convex fitting portion 64 of the robot side jig 50 is fitted to the fitting portion 74 of the first receiving jig 52 is determined by the processor 102 based on the information detected by the force sensor 46. Is calculated by. The processor 102 determines that the information detected by the force sensor 46 has been fitted when it reaches a certain value.

ここで、プロセッサ102に接続されたメモリ104及び/又はストレージ112には、第1受治具52の実空間の座標系の座標の情報が既知(規定)の座標として格納されている。プロセッサ102は、ロボット側治具50の位置を第1受治具52の位置に一致させたときの、ロボット12のハンド36を含むアーム34の移動位置における3次元仮想モデル空間の座標系の座標に関する情報を取得する。 Here, in the memory 104 and / or the storage 112 connected to the processor 102, information on the coordinates of the real space coordinate system of the first receiving jig 52 is stored as known (specified) coordinates. The processor 102 is the coordinates of the coordinate system in the three-dimensional virtual model space at the moving position of the arm 34 including the hand 36 of the robot 12 when the position of the robot side jig 50 is matched with the position of the first receiving jig 52. Get information about.

プロセッサ102は、ロボット側治具50及び第1受治具52における、実空間の座標系の座標(第2の目標位置)と3次元仮想モデル空間の座標系の座標(第1の目標位置)との差を算出する(ステップS107)。プロセッサ102は、ステップS107での実空間の座標系の座標と3次元仮想モデル空間の座標系の座標との差のズレ量の算出結果(第1の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する(ステップS108)。 The processor 102 has the coordinates of the coordinate system in the real space (second target position) and the coordinates of the coordinate system in the three-dimensional virtual model space (first target position) in the robot side jig 50 and the first receiving jig 52. And the difference is calculated (step S107). The processor 102 stores the calculation result (first difference information) of the difference amount (first difference information) between the coordinates of the coordinate system in the real space and the coordinates of the coordinate system in the three-dimensional virtual model space in step S107 in the memory 104 and / or the storage 112. Is output to and stored in (step S108).

プロセッサ102は、座標系の差異検査(ステップS2)において、較正に用いた受治具52,54,56,58の数をカウントする(ステップS109)。較正に用いる受治具52,54,56,58の数は例えばユーザの入力により予め決めておき、メモリ104及び/又はストレージ112に格納しておく。 The processor 102 counts the number of receiving jigs 52, 54, 56, 58 used for calibration in the coordinate system difference check (step S2) (step S109). The number of receiving jigs 52, 54, 56, 58 used for calibration is determined in advance by input of a user, for example, and is stored in the memory 104 and / or the storage 112.

ロボット側治具50が予め設定した所定の数(本実施形態では4つ)の受治具52,54,56,58にそれぞれ接触し、嵌合していない場合(ステップS109−No)、ステップS103からステップS108の処理を行う。 When the robot side jig 50 is in contact with a predetermined number (four in this embodiment) of receiving jigs 52, 54, 56, 58, respectively, and is not fitted (step S109-No), the step The process of step S108 is performed from S103.

プロセッサ102は、ロボット12のアーム34を動かし、ロボット側治具50の位置を、上述した第1受治具52とは異なる第2受治具54の位置に一致させ、すなわち、所定の押圧力で嵌合させる。プロセッサ102は、このときの、実空間の座標系の第2受治具54の座標と、3次元仮想モデル空間の座標系のロボット側治具50の座標との差のズレ量の算出結果(第2の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する。 The processor 102 moves the arm 34 of the robot 12 to match the position of the robot side jig 50 with the position of the second receiving jig 54 different from the above-mentioned first receiving jig 52, that is, a predetermined pressing force. Fit with. The processor 102 calculates the difference amount of the difference between the coordinates of the second receiving jig 54 in the coordinate system of the real space and the coordinates of the robot side jig 50 in the coordinate system of the three-dimensional virtual model space at this time ( The second difference information) is output to the memory 104 and / or the storage 112 and stored.

プロセッサ102は、ロボット12のアーム34を動かし、ロボット側治具50の位置を、上述した第1受治具52及び第2受治具54とは異なる第3受治具56の位置に一致させ、すなわち、所定の押圧力で嵌合させる。プロセッサ102は、このときの、実空間の座標系の第3受治具56の座標と、3次元仮想モデル空間の座標系のロボット側治具50の座標との差のズレ量の算出結果(第3の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する。 The processor 102 moves the arm 34 of the robot 12 to match the position of the robot side jig 50 with the position of the third receiving jig 56 different from the first receiving jig 52 and the second receiving jig 54 described above. That is, they are fitted with a predetermined pressing force. The processor 102 calculates the difference amount of the difference between the coordinates of the third receiving jig 56 in the coordinate system of the real space and the coordinates of the robot side jig 50 in the coordinate system of the three-dimensional virtual model space at this time ( The third difference information) is output to the memory 104 and / or the storage 112 and stored.

プロセッサ102は、ロボット12のアーム34を動かし、ロボット側治具50の位置を、上述した第1受治具52、第2受治具54及び第3受治具56とは異なる第4受治具58の位置に一致させ、すなわち、所定の押圧力で嵌合させる。プロセッサ102は、このときの、実空間の座標系の第4受治具58の座標と、3次元仮想モデル空間の座標系のロボット側治具50の座標との差のズレ量の算出結果(第4の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する。 The processor 102 moves the arm 34 of the robot 12, and the position of the robot side jig 50 is different from that of the first receiving jig 52, the second receiving jig 54, and the third receiving jig 56 described above. It is aligned with the position of the jig 58, that is, it is fitted with a predetermined pressing force. The processor 102 calculates the difference amount of the difference between the coordinates of the fourth receiving jig 58 in the coordinate system of the real space and the coordinates of the robot side jig 50 in the coordinate system of the three-dimensional virtual model space at this time ( The fourth difference information) is output to the memory 104 and / or the storage 112 and stored.

ロボット側治具50の位置を動かす順は、第1受治具52、第2受治具54、第3受治具56、第4受治具58の順に限られない。プロセッサ102は、ロボット側治具50の位置を動かす最適な経路(順)を予め算出し得る。 The order in which the position of the robot-side jig 50 is moved is not limited to the order of the first receiving jig 52, the second receiving jig 54, the third receiving jig 56, and the fourth receiving jig 58. The processor 102 can calculate in advance the optimum path (order) for moving the position of the robot-side jig 50.

ロボット側治具50が予め設定した所定の数(本実施形態では4つ)の受治具52,54,56,58にそれぞれ接触し、嵌合した場合(ステップS109−Yes)、ステップS3に進む。 When the robot-side jig 50 comes into contact with and fits into a predetermined number (four in this embodiment) of receiving jigs 52, 54, 56, 58, respectively (step S109-Yes), the step S3 is performed. move on.

メモリ104及び/又はストレージ112には、ロボット側治具50が予め設定した4つの受治具52,54,56,58にそれぞれ接触し、嵌合したときの、第1の差異情報、第2の差異情報、第3の差異情報及び第4の差異情報が格納されている。図6に示すように、プロセッサ102は、これら第1から第4の差異情報に基づいて、3次元仮想モデル空間の座標系を更新、すなわち、較正を実施するか否か判断する(ステップS3)。 The first difference information, the second, when the robot side jig 50 contacts and fits the four receiving jigs 52, 54, 56, 58 set in advance to the memory 104 and / or the storage 112, respectively. The difference information, the third difference information, and the fourth difference information are stored. As shown in FIG. 6, the processor 102 updates the coordinate system of the three-dimensional virtual model space based on the first to fourth difference information, that is, determines whether or not to perform calibration (step S3). ..

実際には、プロセッサ102は、ロボット側治具50が予め設定した4つの受治具52,54,56,58にそれぞれ接触し、嵌合したときに取得した第1の差異情報、第2の差異情報、第3の差異情報及び第4の差異情報の信頼性を判断する。例えば、力覚センサ46等により、ロボット側治具50が受治具52,54,56,58の位置、すなわち荷物ケース18を動かした等が認識された場合、プロセッサ102は、較正を実施しないと判断(ステップS3−No)し、座標系の差異検査(ステップS2)をやり直す。 Actually, the processor 102 comes into contact with the four receiving jigs 52, 54, 56, 58 set in advance by the robot side jig 50, respectively, and obtains the first difference information and the second difference information when they are fitted. The reliability of the difference information, the third difference information, and the fourth difference information is judged. For example, when the force sensor 46 or the like recognizes that the robot side jig 50 has moved the positions of the receiving jigs 52, 54, 56, 58, that is, the luggage case 18, the processor 102 does not perform calibration. (Step S3-No), and the coordinate system difference check (step S2) is repeated.

例えば、力覚センサ46等からの情報に基づいて、ロボット側治具50が各受治具52,54,56,58の位置を動かさず、適切に各嵌合が行われたと認識された場合、プロセッサ102は、較正を実施すると判断(ステップS3−Yes)し、較正を実施する。 For example, when it is recognized that the robot-side jig 50 does not move the positions of the receiving jigs 52, 54, 56, and 58 based on the information from the force sensor 46 and the like, and that each fitting is properly performed. , Processor 102 determines that calibration is to be performed (step S3-Yes), and performs calibration.

プロセッサ102が較正を実施する場合、プロセッサ102は、実空間の座標系の4つの座標と3次元仮想モデル空間の座標系の4つの座標とのズレ量の算出結果に基づいて、3次元仮想モデル空間の座標系の座標を、実空間の座標系の座標に合わせる処理を行う。すなわち、プロセッサ102は、メモリ104及び/又はストレージ112に格納した3次元仮想モデル空間の座標系を更新、すなわち、較正を実施する。 When the processor 102 performs calibration, the processor 102 calculates a three-dimensional virtual model based on the calculation result of the amount of deviation between the four coordinates of the coordinate system in the real space and the four coordinates of the coordinate system in the three-dimensional virtual model space. Performs a process to match the coordinates of the coordinate system in space with the coordinates of the coordinate system in real space. That is, the processor 102 updates, that is, calibrates the coordinate system of the three-dimensional virtual model space stored in the memory 104 and / or the storage 112.

受治具52,54,56,58の位置に対し、ロボット側治具50の位置を一致させる数は、例えば1つよりも2つ、2つよりも3つ、3つよりも4つなど、数を多くするほど、実空間の座標系に対し、更新された新たな3次元仮想モデル空間の座標系のズレを少なくする。受治具52,54,56,58の位置に対し、ロボット側治具50の位置を一致させる数を例えば1つとしても、プロセッサ102が較正を実施する際の信頼性がある、と判断したときには、較正を実施し得る。 The number of matching the positions of the robot side jig 50 with respect to the positions of the receiving jigs 52, 54, 56, 58 is, for example, two more than one, three more than two, four more than three, and the like. , The larger the number, the smaller the deviation of the coordinate system of the updated new 3D virtual model space with respect to the coordinate system of the real space. Even if the number of matching jigs 50 on the robot side with respect to the positions of the receiving jigs 52, 54, 56, and 58 is, for example, one, it is determined that the processor 102 is reliable when performing calibration. Occasionally, calibration can be performed.

そして、プロセッサ102は、上述した通常運転(ステップS4)を行う。 Then, the processor 102 performs the above-mentioned normal operation (step S4).

通常運転(ステップS4)を行った直後、プロセッサ102は、イベント情報の有無を判断する(ステップS5)。プロセッサ102は、通常運転(ステップS4)中にイベント情報が発生した場合(ステップS5−Yes)、そのイベント情報をメモリ104及び/又はストレージ112に格納する(ステップS6)。プロセッサ102は、通常運転(ステップS4)中にイベント情報があった場合、通常運転(ステップS4)の実施中に、メモリ104及び/又はストレージ112に格納してもよい。 Immediately after the normal operation (step S4) is performed, the processor 102 determines the presence / absence of event information (step S5). When the event information occurs during the normal operation (step S4) (step S5-Yes), the processor 102 stores the event information in the memory 104 and / or the storage 112 (step S6). If there is event information during the normal operation (step S4), the processor 102 may store the event information in the memory 104 and / or the storage 112 during the normal operation (step S4).

プロセッサ102は、通常運転(ステップS4)中にイベント情報がなかったと判断した場合(ステップS5−No)、次の荷物Bをピックアップする通常運転(ステップS4)を行う。 When the processor 102 determines that there is no event information during the normal operation (step S4) (step S5-No), the processor 102 performs the normal operation (step S4) of picking up the next baggage B.

イベント情報がストレージ112又はメモリ104に格納された(ステップS6)後、プロセッサ102は、荷役装置10全体の運転を停止するか否か判断する(ステップS7)。 After the event information is stored in the storage 112 or the memory 104 (step S6), the processor 102 determines whether or not to stop the operation of the entire cargo handling device 10 (step S7).

プロセッサ102が、例えば、コンベヤ16の異常、カメラ20の異常、モータ42,44の異常、又は、力覚センサ46の異常の信号などのイベント情報を受けた(ステップS5)場合、その情報をストレージ112又はメモリ104に格納(ステップS6)し、プロセッサ102は、荷役装置10全体の運転を停止する(ステップS7−Yes)。もちろん、プロセッサ102は、通常運転(ステップS4)中にこれらのイベント情報を受信した場合、ただちに荷役装置10全体の運転を停止してもよい。 When the processor 102 receives event information such as an abnormality of the conveyor 16, an abnormality of the camera 20, an abnormality of the motors 42 and 44, or an abnormality of the force sensor 46 (step S5), the information is stored. It is stored in 112 or the memory 104 (step S6), and the processor 102 stops the operation of the entire cargo handling device 10 (step S7-Yes). Of course, when the processor 102 receives these event information during the normal operation (step S4), the processor 102 may immediately stop the operation of the entire cargo handling device 10.

プロセッサ102は、「前回の較正実施から所定時間が経過したこと」、例えば複数回にわたって、「アーム34の移動中にロボット12が何かの物体に接触したこと」、「ハンド36で荷物Bのピッキングを失敗したこと」、又は、「荷物Bに対するハンド36の位置ズレを検出したこと」のイベント情報の発生を認識した(ステップS5−Yes)場合、荷役装置10全体の運転を停止せず(ステップS7−No)、較正実施条件を満たすか否か、判断する(ステップS1)。 The processor 102 states that "a predetermined time has passed since the last calibration was performed", for example, "the robot 12 touched an object while the arm 34 was moving", and "the hand 36 of the luggage B". When the occurrence of the event information of "failed picking" or "detected the misalignment of the hand 36 with respect to the luggage B" is recognized (step S5-Yes), the operation of the entire cargo handling device 10 is not stopped (step S5-Yes). Step S7-No), it is determined whether or not the calibration execution condition is satisfied (step S1).

このように、プロセッサ102は、メモリ104及び/又はストレージ112に格納したイベント情報の内容に基づいて、荷役装置10全体の運転を停止するか否か判断する。また、プロセッサ102は、メモリ104及び/又はストレージ112に格納したイベント情報に基づいて、実空間の座標系に対し3次元仮想モデル空間の座標系の較正を行うか否か判断する。 In this way, the processor 102 determines whether or not to stop the operation of the entire cargo handling device 10 based on the contents of the event information stored in the memory 104 and / or the storage 112. Further, the processor 102 determines whether or not to calibrate the coordinate system of the three-dimensional virtual model space with respect to the coordinate system of the real space based on the event information stored in the memory 104 and / or the storage 112.

このように、荷役装置10は、荷役装置10の運用開始時、及び、運用開始後に、定期的、又は、所定のイベント発生時に、自動で較正を実施することができる。 In this way, the cargo handling device 10 can automatically perform calibration at the start of operation of the cargo handling device 10 and at the time of periodic or predetermined event occurrence after the start of operation.

なお、荷物ケース18の4つの角部22,24,26,28に配置した受治具52,54,56,58は、略同一高さにある。しかしながら、受治具52,54,56,58の高さがバラバラであっても、実空間の座標系の受治具52,54,56,58の座標が規定(既知)であれば、ロボット12の動作により、ロボット側治具50を各受治具52,54,56,58に順に接触させることができる。このため、受治具52,54,56,58の位置及び向きは、例えばロボット12のハンド36が届く範囲で適宜に設定可能である。すなわち、受治具52に対するロボット側治具50の嵌合方向は、床面に対し、図5に示す上下方向に限られない。受治具52に対するロボット側治具50の嵌合方向は、例えば、床面に対し、斜め方向でもよく、水平方向でもよい。これは、他の受治具54,56,58でも同様である。 The receiving jigs 52, 54, 56, 58 arranged at the four corners 22, 24, 26, 28 of the luggage case 18 are at substantially the same height. However, even if the heights of the receiving jigs 52, 54, 56, 58 are different, if the coordinates of the receiving jigs 52, 54, 56, 58 in the real space coordinate system are specified (known), the robot By the operation of 12, the robot-side jig 50 can be brought into contact with the receiving jigs 52, 54, 56, and 58 in order. Therefore, the positions and orientations of the receiving jigs 52, 54, 56, and 58 can be appropriately set within a range that the hand 36 of the robot 12 can reach, for example. That is, the fitting direction of the robot-side jig 50 with respect to the receiving jig 52 is not limited to the vertical direction shown in FIG. 5 with respect to the floor surface. The fitting direction of the robot-side jig 50 with respect to the receiving jig 52 may be, for example, an oblique direction or a horizontal direction with respect to the floor surface. This also applies to the other receiving jigs 54, 56, 58.

ロボット12の設置時や、荷役装置10の電源投入時などの、較正を実施する条件を満たす場合(ステップS1−Yes)、プロセッサ102は、例えば、ステップS2のステップS101の前に、アーム34の先端のハンド36を、ロボット側治具50が取り付けてあるツールに自動的に交換することも好適である。この場合、ハンド36に予めロボット側治具50を固定することは不要である。 When the conditions for performing calibration are satisfied (step S1-Yes) such as when the robot 12 is installed or when the cargo handling device 10 is turned on, the processor 102 is placed on the arm 34 before step S101 in step S2, for example. It is also preferable to automatically replace the hand 36 at the tip with a tool to which the robot side jig 50 is attached. In this case, it is not necessary to fix the robot side jig 50 to the hand 36 in advance.

本実施形態に係る荷役装置10は、概略、制御装置14と、制御装置14からの信号により、3次元仮想モデル空間の座標系に基づいて移動するロボット12と、ロボット12により3次元仮想モデル空間の座標系において移動するロボット側治具50と、実空間の座標系の座標が規定される第1受治具52とを有する。
ロボット12は、ロボット側治具50と第1受治具52との接触を検知するセンサ46を有する。制御装置14のプロセッサ102は、センサ46からの情報に基づいて第1受治具52に対するロボット側治具50の移動を制御する。
ロボット側治具50及び第1受治具52は、嵌合可能である。
The cargo handling device 10 according to the present embodiment is roughly a control device 14, a robot 12 that moves based on a coordinate system of the three-dimensional virtual model space by a signal from the control device 14, and a three-dimensional virtual model space by the robot 12. It has a robot-side jig 50 that moves in the coordinate system of the above, and a first receiving jig 52 that defines the coordinates of the coordinate system in the real space.
The robot 12 has a sensor 46 that detects contact between the robot side jig 50 and the first receiving jig 52. The processor 102 of the control device 14 controls the movement of the robot-side jig 50 with respect to the first receiving jig 52 based on the information from the sensor 46.
The robot side jig 50 and the first receiving jig 52 can be fitted.

本実施形態に係る制御装置14のプロセッサ102は、概略、以下を実施して、較正を行う。プロセッサ102は、3次元仮想モデル空間の座標系においてロボット12により移動させるロボット側治具50を、3次元仮想モデル空間の座標系に基づいて、実空間の座標系の座標が規定される第1受治具(受部)52に向けて移動させて接触させ、ロボット側治具50を第1受治具52の所定位置に接触させたときに得る、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得し、第1の差異情報に基づいて、3次元仮想モデル空間の座標系を較正する。
上述したように、荷役装置10がロボット側治具50と第1受治具(受部)52を用いる場合、ロボット側治具50を第1受治具52の所定位置に接触させたとき、プロセッサ102は、3次元仮想モデル空間の座標系のロボット側治具50の座標に基づいて、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得する。
本実施形態に係る制御装置14及び荷役装置10は、例えばハンド36に一方の嵌合部64を取り付けておき、荷物ケース18に他方の嵌合部74を取り付けておくことで、ティーチングペンダントの操作等、人間の手を介さず、プロセッサ102が自動で較正を実施することができる。このように、本実施形態に係る荷役装置10の制御装置14を用いることで、較正の実施を自動化することができる。そして、人間を介することがないため、本実施形態に係る荷役装置10の制御装置14を用いることで、較正の実施の際に設備を停止させる必要がなく、較正の実施の高速化が図れ、荷役装置10を効率的に用いることができる。
プロセッサ102は、荷役装置10の緊急点検時など、入力部122からの入力による較正実施の指示に基づいて、較正を実施することができる。
The processor 102 of the control device 14 according to the present embodiment is roughly calibrated by carrying out the following. The processor 102 is a first unit in which the coordinates of the real space coordinate system are defined based on the coordinate system of the three-dimensional virtual model space for the robot side jig 50 to be moved by the robot 12 in the coordinate system of the three-dimensional virtual model space. The coordinates of the robot-side jig 50 and the first one obtained when the robot-side jig 50 is brought into contact with a predetermined position of the first receiving jig 52 by moving it toward the receiving jig (receiving portion) 52 and making contact with it. The first difference information from the coordinates of the receiving jig 52 is acquired, and the coordinate system of the three-dimensional virtual model space is calibrated based on the first difference information.
As described above, when the cargo handling device 10 uses the robot side jig 50 and the first receiving jig (receiving part) 52, when the robot side jig 50 is brought into contact with a predetermined position of the first receiving jig 52, The processor 102 acquires the first difference information between the coordinates of the robot side jig 50 and the coordinates of the first receiving jig 52 based on the coordinates of the robot side jig 50 in the coordinate system of the three-dimensional virtual model space. ..
The control device 14 and the cargo handling device 10 according to the present embodiment operate the teaching pendant by, for example, attaching one fitting portion 64 to the hand 36 and attaching the other fitting portion 74 to the luggage case 18. Etc., the processor 102 can automatically perform the calibration without human intervention. As described above, by using the control device 14 of the cargo handling device 10 according to the present embodiment, the calibration can be automated. Further, since no human intervention is required, by using the control device 14 of the cargo handling device 10 according to the present embodiment, it is not necessary to stop the equipment when performing the calibration, and the speed of performing the calibration can be increased. The cargo handling device 10 can be used efficiently.
The processor 102 can perform calibration based on an instruction to perform calibration by input from the input unit 122, such as during an emergency inspection of the cargo handling device 10.

プロセッサ102は、第1の差異情報を取得した後、ロボット側治具50を、第1受治具52から離し、実空間の座標系の座標が規定される第2受治具54に向けて移動させて接触させる。プロセッサ102は、ロボット側治具50を第2受治具54に接触させたときに得る、ロボット側治具50の座標と第2受治具54の座標との第2の差異情報を取得し、第1の差異情報に加え第2の差異情報に基づいて、3次元仮想モデル空間の座標系を較正し、実空間の座標系に一致又は略一致させる。
複数の位置での情報(例えば、第1の差異情報、第2の差異情報、第3の差異情報及び第4の差異情報)に基づいて較正を実施することで、較正の信頼性(精度)を向上させ、かつ、実空間の座標系に3次元仮想モデル空間の座標系をより合わせることができる。すなわち、より多数の位置での情報に基づいて較正を実施することで、較正の信頼性(精度)を向上させ、かつ、実空間の座標系に3次元仮想モデル空間の座標系をより合わせることができる。このとき、人間の操作を介する必要がないので、較正の実施の自動化だけでなく、高速化を実現することができる。
After acquiring the first difference information, the processor 102 separates the robot side jig 50 from the first receiving jig 52 and directs the robot side jig 50 toward the second receiving jig 54 in which the coordinates of the real space coordinate system are defined. Move and contact. The processor 102 acquires the second difference information between the coordinates of the robot side jig 50 and the coordinates of the second receiving jig 54, which are obtained when the robot side jig 50 is brought into contact with the second receiving jig 54. , The coordinate system of the three-dimensional virtual model space is calibrated based on the second difference information in addition to the first difference information, and matches or substantially matches the coordinate system of the real space.
Calibration reliability (accuracy) by performing calibration based on information at multiple positions (eg, first difference information, second difference information, third difference information, and fourth difference information). And the coordinate system of the three-dimensional virtual model space can be twisted to the coordinate system of the real space. That is, by performing the calibration based on the information at a larger number of positions, the reliability (accuracy) of the calibration is improved, and the coordinate system of the three-dimensional virtual model space is twisted with the coordinate system of the real space. Can be done. At this time, since it is not necessary to use human operation, it is possible to realize not only automation of calibration execution but also high speed.

プロセッサ102は、ロボット側治具50が第1受治具52の所定位置に接触したことの接触情報を、ロボット12を通して取得し、接触情報に基づいて、ロボット側治具50の移動を停止させ、ロボット側治具50の移動を停止させたときの3次元仮想モデル空間の座標系のロボット側治具50の座標を得る。
ロボット側治具50が例えば第1受治具52の所定位置に接触したことの接触情報は、ロボット12の力覚センサ46を用いて取得できるほか、モータ42,44の駆動トルクなどからも取得することができる。このため、プロセッサ102は、モータ42,44を用いたアーム34の公知のコンプライアンス動作等により、ロボット側治具50を例えば第1受治具52の所定位置に自動的に、より確実に接触させることができる。
The processor 102 acquires contact information that the robot-side jig 50 has contacted a predetermined position of the first receiving jig 52 through the robot 12, and stops the movement of the robot-side jig 50 based on the contact information. , Obtain the coordinates of the robot side jig 50 in the coordinate system of the three-dimensional virtual model space when the movement of the robot side jig 50 is stopped.
The contact information that the robot-side jig 50 has come into contact with the predetermined position of the first receiving jig 52 can be acquired by using the force sensor 46 of the robot 12, or also from the driving torque of the motors 42 and 44. can do. Therefore, the processor 102 automatically and more reliably brings the robot-side jig 50 into contact with, for example, a predetermined position of the first receiving jig 52 by a known compliance operation of the arm 34 using the motors 42 and 44. be able to.

ロボット12のアーム34を適宜に動かしていくと、ロボット側治具50が第1受治具52に当接する。このとき、力覚センサ46で、ロボット側治具50と第1受治具52との接触を検知する。プロセッサ102は、インターフェース106を介して、ロボット12の力覚センサ46からロボット側治具50と第1受治具52との接触情報を取得する。プロセッサ102は、力覚センサ46から取得する情報に基づいて、3次元仮想モデル空間の座標系のロボット側治具50の座標を算出可能である。このように、プロセッサ102は、3次元仮想モデル空間の座標系に基づいてロボット側治具50を第1受治具52の所定位置に接触させる際、力覚センサ46から取得する情報に基づいて、第1の差異情報をインターフェース106を介して取得し、算出する。
荷役装置10のプロセッサ102は、例えば力覚センサ46を用いる力制御のほか、フィードバック制御を行う場合がある。フィードバック制御でも同様に、プロセッサ102は、3次元仮想モデル空間の座標系に基づいてロボット側治具50を第1受治具52の所定位置に接触させる際、ロボット12のモータ42,44から取得する情報に基づいて、第1の差異情報をインターフェース106を介して取得し、算出する。
このため、ロボット側治具50を第1受治具52の所定位置に接触させたとき、本実施形態に係る制御装置のプロセッサ102は、3次元仮想モデル空間の座標系のロボット側治具50の座標の代わりに、力覚センサ46及び/又はモータ42,44すなわちロボット12から得られる応力及び/又はその他の情報に基づいて、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得してもよい。また、本実施形態に係る制御装置のプロセッサ102は、ロボット側治具50を第1受治具52の所定位置に接触させたとき、力覚センサ46及び/又はモータ42,44すなわちロボット12から得られる応力及び/又はその他の情報とともに、3次元仮想モデル空間の座標系のロボット側治具50の座標に基づいて、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得してもよい。
When the arm 34 of the robot 12 is appropriately moved, the robot side jig 50 comes into contact with the first receiving jig 52. At this time, the force sensor 46 detects the contact between the robot side jig 50 and the first receiving jig 52. The processor 102 acquires contact information between the robot side jig 50 and the first receiving jig 52 from the force sensor 46 of the robot 12 via the interface 106. The processor 102 can calculate the coordinates of the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space based on the information acquired from the force sensor 46. In this way, the processor 102 is based on the information acquired from the force sensor 46 when the robot side jig 50 is brought into contact with the predetermined position of the first receiving jig 52 based on the coordinate system of the three-dimensional virtual model space. , The first difference information is acquired via the interface 106 and calculated.
The processor 102 of the cargo handling device 10 may perform feedback control in addition to force control using, for example, a force sensor 46. Similarly in the feedback control, the processor 102 acquires from the motors 42 and 44 of the robot 12 when the robot side jig 50 is brought into contact with the predetermined position of the first receiving jig 52 based on the coordinate system of the three-dimensional virtual model space. The first difference information is acquired and calculated via the interface 106 based on the information to be generated.
Therefore, when the robot-side jig 50 is brought into contact with the predetermined position of the first receiving jig 52, the processor 102 of the control device according to the present embodiment is the robot-side jig 50 in the coordinate system of the three-dimensional virtual model space. Instead of the coordinates of, the coordinates of the robot side jig 50 and the coordinates of the first receiving jig 52 are based on the stress and / or other information obtained from the force sensor 46 and / or the motors 42, 44, that is, the robot 12. The first difference information with and may be acquired. Further, when the robot side jig 50 is brought into contact with the predetermined position of the first receiving jig 52, the processor 102 of the control device according to the present embodiment is used from the force sensor 46 and / or the motors 42, 44, that is, the robot 12. Along with the obtained stress and / or other information, the coordinates of the robot side jig 50 and the coordinates of the first receiving jig 52 are the first based on the coordinates of the robot side jig 50 in the coordinate system of the three-dimensional virtual model space. The difference information of 1 may be acquired.

プロセッサ102は、ロボット12に関する情報を取得し、ロボット12に関する情報に基づいてロボット側治具50を動かして第1受治具52に接触させる。
ロボット12に関する情報を、プロセッサ102が較正を実施するか否か判断する際の情報として用いることができる。較正実施条件を満たしたときに較正を実施し、較正実施条件を満たさないときに較正を実施せず、通常運転を行うことで、3次元仮想モデル空間の座標を実空間の座標系に一致させながら、ロボット12による荷物Bのピッキングミスを減らすことができる。
The processor 102 acquires information about the robot 12, and moves the robot-side jig 50 based on the information about the robot 12 to bring it into contact with the first receiving jig 52.
Information about the robot 12 can be used as information when the processor 102 determines whether or not to perform calibration. By performing calibration when the calibration execution conditions are met, and performing normal operation without performing calibration when the calibration execution conditions are not met, the coordinates of the 3D virtual model space are matched with the coordinates system of the real space. However, the picking error of the luggage B by the robot 12 can be reduced.

本実施形態では、図1に示す垂直多関節型ロボット12を例にして説明したが、ハンド36を含むアーム34を有するロボット12であれば、種々のロボットを用いることができる。床面に固定されるロボット12だけでなく、床面に対し動かないように置かれたロボット12であっても、較正実施条件を満たしたときに較正を行うことで、3次元仮想モデル空間の座標を実空間の座標系に一致させることができる。 In the present embodiment, the vertical articulated robot 12 shown in FIG. 1 has been described as an example, but various robots can be used as long as the robot 12 has an arm 34 including a hand 36. Not only the robot 12 fixed to the floor surface but also the robot 12 placed so as not to move with respect to the floor surface can be calibrated when the calibration execution conditions are satisfied to create a three-dimensional virtual model space. The coordinates can be matched to the real space coordinate system.

また、天井や適宜のフレーム等に吊り下げられたロボット12は、原点を天井や適宜のフレーム等に採ることができる。天井や適宜のフレーム等に吊り下げられたロボット12は、較正実施条件を満たしたときに較正を行うことで、3次元仮想モデル空間の座標を較正することができる。 Further, the robot 12 suspended from the ceiling or an appropriate frame or the like can take the origin to the ceiling or an appropriate frame or the like. The robot 12 suspended from the ceiling, an appropriate frame, or the like can calibrate the coordinates of the three-dimensional virtual model space by performing calibration when the calibration execution conditions are satisfied.

ロボット12の設置時や、荷役装置10の電源投入時、較正を実施する条件を満たす場合(ステップS1−Yes)の場合、自動でロボット側治具50が取り付けてあるツールにハンド36を変更することが難しい場合がある。この場合、保守員が手動でアーム34の先端のハンド36を取り外して、ロボット側治具50を含むツールを取り付けてもよい。このため、較正の実施の際に用いるロボット側治具50は、常に荷役装置10内のハンド36などに取り付けてあっても、較正の実施時に保守員が手動でハンド36に代えて、ロボット側治具50を取り付けてもよい。 When the robot 12 is installed, the cargo handling device 10 is turned on, and the conditions for performing calibration are satisfied (step S1-Yes), the hand 36 is automatically changed to the tool to which the robot side jig 50 is attached. Can be difficult. In this case, the maintenance person may manually remove the hand 36 at the tip of the arm 34 and attach a tool including the robot side jig 50. Therefore, even if the robot side jig 50 used when performing the calibration is always attached to the hand 36 or the like in the cargo handling device 10, the maintenance staff manually replaces the hand 36 at the time of performing the calibration on the robot side. The jig 50 may be attached.

ロボット側治具50の構造、及び、受治具52,54,56,58の構造は、種々、変形が可能である。 The structure of the robot-side jig 50 and the structures of the receiving jigs 52, 54, 56, and 58 can be variously modified.

本実施形態では、ロボット側治具50、受治具52,54,56,58を用い、さらに、力制御を行うことにより、ロボット側治具50を受治具52に接触させながら移動させることができる。このため、例えばティーチングペンダント等のマニュアル操作が不要となり、ロボット12の較正の実施の自動化を実現することができる。したがって、本実施形態によれば、較正の精度のバラつきを抑制可能な荷役装置10の制御装置14、及び、荷役装置10を提供することができる。 In the present embodiment, the robot side jig 50 and the receiving jigs 52, 54, 56, 58 are used, and the robot side jig 50 is moved while being in contact with the receiving jig 52 by further performing force control. Can be done. Therefore, for example, manual operation of a teaching pendant or the like becomes unnecessary, and automation of calibration of the robot 12 can be realized. Therefore, according to the present embodiment, it is possible to provide the control device 14 of the cargo handling device 10 and the cargo handling device 10 capable of suppressing variations in calibration accuracy.

[第2実施形態]
図8を用いて第2実施形態に係る荷役装置10について説明する。ここでは、主に、プロセッサ102による座標系の差異検査(ステップS2)の変形例について説明する。
[Second Embodiment]
The cargo handling device 10 according to the second embodiment will be described with reference to FIG. Here, a modification of the coordinate system difference check (step S2) by the processor 102 will be mainly described.

図8に示すように、荷役装置10は、例えばコンベヤ16に隣接する位置に、QRコード(登録商標)などのコード140が表示される表示部142がある。コード140は、QRコードのようなマトリクス型二次元コードのほか、スタック型二次元コードでもよい。コード140は、バーコードのような一次元コードでもよい。表示部142のコード140は実空間の座標系の座標が所定の座標に設定されている。コード140は、コード140自体の実空間の座標系の座標など、適宜の情報を含む。 As shown in FIG. 8, the cargo handling device 10 has a display unit 142 on which a code 140 such as a QR code (registered trademark) is displayed, for example, at a position adjacent to the conveyor 16. The code 140 may be a stack type two-dimensional code as well as a matrix type two-dimensional code such as a QR code. The code 140 may be a one-dimensional code such as a bar code. In the code 140 of the display unit 142, the coordinates of the coordinate system in the real space are set to predetermined coordinates. The code 140 includes appropriate information such as the coordinates of the real space coordinate system of the code 140 itself.

コード140がQRコードである場合、QRコード140は、3つの切り出しシンボル152,154,156、タイミングパターン、アライメントパターンを有する。 When the code 140 is a QR code, the QR code 140 has three cutout symbols 152, 154, 156, a timing pattern, and an alignment pattern.

プロセッサ102は、カメラ(イメージセンサー)20、又は、コード140を認識するための図示しない別のカメラ(イメージセンサー)を介して読み取ったQRコード140の情報を受信する。別のカメラは、カメラ20と同様に、インターフェース106を介してプロセッサ102と通信する。
QRコード140には、メモリ104及び/又はストレージ112に格納した情報と同じ情報を格納することができる。このため、QRコード140を作成することで、プロセッサ102は、メモリ104及び/又はストレージ112からの情報の読み出し、すなわち、アクセスが不要になり得る。QRコード140に適宜の情報を格納しておくことで、荷役装置10は、例えば入力部122によりメモリ104及び/又はストレージ112に情報を入力しなくてもよい。プロセッサ102は、メモリ104及び/又はストレージ112にアクセスし、メモリ104及び/又はストレージ112に格納された情報と、QRコード140に格納された情報とを比較し、両者の情報の信頼性を確認してもよい。
The processor 102 receives the information of the QR code 140 read through the camera (image sensor) 20 or another camera (image sensor) (not shown) for recognizing the code 140. Another camera, like the camera 20, communicates with the processor 102 via the interface 106.
The QR code 140 can store the same information as the information stored in the memory 104 and / or the storage 112. Therefore, by creating the QR code 140, the processor 102 may not need to read the information from the memory 104 and / or the storage 112, that is, access. By storing appropriate information in the QR code 140, the cargo handling device 10 does not have to input the information into the memory 104 and / or the storage 112 by, for example, the input unit 122. The processor 102 accesses the memory 104 and / or the storage 112, compares the information stored in the memory 104 and / or the storage 112 with the information stored in the QR code 140, and confirms the reliability of both information. You may.

プロセッサ102は、座標系の差異検査(ステップS2)を行う場合、図7中のステップS101を実行する代わりに、カメラ20等で、3つの切り出しシンボル(受部)152,154,156を含むQRコード140を撮像する。プロセッサ102は、カメラ20等で撮像した情報をインターフェース106を介して取得する。プロセッサ102は、カメラ20等で撮像した情報に基づいてQRコード140の情報を読み取る。3つの切り出しシンボル152,154,156は実空間の座標系の座標が規定されている。すなわち、QRコード140の情報は、実空間の座標系における第1切り出しシンボル(第1受部)152、第2切り出しシンボル(第2受部)154、及び、第3切り出しシンボル(第3受部)156の座標を含む。プロセッサ102は、3つの切り出しシンボル152,154,156の実空間の座標系の座標を、QRコード140から読み出してもよく、メモリ104及び/又はストレージ112から読み出してもよい。プロセッサ102は、例えばQRコード140の特徴点である3つの切り出しシンボル152,154,156を規定部(規定マーカ)とする(ステップS102)。プロセッサ102は、ロボット側治具50を切り出しシンボル(規定部)152に接触させるようにロボット12を動作させ(ステップS103−S106)、実空間の座標系の座標と3次元仮想モデル空間の座標系の座標との差のズレ量(第1の差異情報)を算出(ステップS107)し、メモリ104及び/又はストレージ112に出力し、格納する(ステップS108)。プロセッサ102は、残りの2つの切り出しシンボル(規定部)154,156に対して同様の座標系の差異検査(ステップS109)を行う。 When the processor 102 performs the difference check (step S2) of the coordinate system, instead of executing the step S101 in FIG. 7, the processor 20 or the like includes a QR including three cutout symbols (receivers) 152, 154, 156. The code 140 is imaged. The processor 102 acquires the information captured by the camera 20 or the like via the interface 106. The processor 102 reads the information of the QR code 140 based on the information captured by the camera 20 or the like. The coordinates of the real space coordinate system are defined for the three cutout symbols 152, 154, and 156. That is, the information of the QR code 140 includes the first cutout symbol (first receiving part) 152, the second cutout symbol (second receiving part) 154, and the third cutout symbol (third receiving part) in the coordinate system in the real space. ) Includes 156 coordinates. The processor 102 may read the coordinates of the real space coordinate system of the three cutout symbols 152, 154, 156 from the QR code 140 and / or from the memory 104 and / or the storage 112. The processor 102 uses, for example, the three cutout symbols 152, 154, and 156, which are the feature points of the QR code 140, as defining portions (regulating markers) (step S102). The processor 102 operates the robot 12 so that the robot side jig 50 is brought into contact with the cutout symbol (regulated portion) 152 (steps S103-S106), and the coordinates of the coordinate system in the real space and the coordinates system in the three-dimensional virtual model space The amount of deviation from the coordinates (first difference information) is calculated (step S107), output to the memory 104 and / or the storage 112, and stored (step S108). The processor 102 performs the same coordinate system difference check (step S109) on the remaining two cutout symbols (regulated portions) 154 and 156.

プロセッサ102は、実空間の座標系に対して3次元仮想モデル空間の座標系のズレを解消するように、較正を実施する(ステップS3)。 The processor 102 performs calibration so as to eliminate the deviation of the coordinate system in the three-dimensional virtual model space with respect to the coordinate system in the real space (step S3).

本実施形態で説明したように、第1実施形態で説明した受治具(規定部)52,54,56,58の代わりに、QRコード(規定マーカ)140の切り出しシンボル152,154,156を用いることができる。このため、受治具52,54,56,58を取り付けた荷物ケース18を準備する必要がなくなる。 As described in the present embodiment, instead of the receiving jigs (regulated parts) 52, 54, 56, 58 described in the first embodiment, the cutout symbols 152, 154, 156 of the QR code (specified marker) 140 are used. Can be used. Therefore, it is not necessary to prepare the luggage case 18 to which the receiving jigs 52, 54, 56, and 58 are attached.

例えばQRコード140は、常時表示している必要はなく、必要なときに表示部142に表示させてもよい。QRコード140は、作成が容易である。このため、カメラ20等を用いて認識させたいQRコード140の情報を変更したい場合、新たなQRコード140を表示部142に表示させることができる。プロセッサ102は、例えばQRコード140を定期的、又は、所定のイベント発生直後に表示部142に表示させ、カメラ20を通してQRコード140の情報を認識することで、較正を実施する。 For example, the QR code 140 does not have to be displayed all the time, and may be displayed on the display unit 142 when necessary. The QR code 140 is easy to create. Therefore, when it is desired to change the information of the QR code 140 to be recognized by using the camera 20 or the like, a new QR code 140 can be displayed on the display unit 142. The processor 102 performs calibration by displaying the QR code 140 on the display unit 142 periodically or immediately after the occurrence of a predetermined event and recognizing the information of the QR code 140 through the camera 20.

このように、本実施形態に係るプロセッサ102は、ロボット12を制御し、3次元仮想モデル空間の座標系に基づいて、実空間におけるロボット12により移動させるロボット側治具50を実空間の座標系の座標が規定される切り出しシンボル(第1受部)152に向けて移動させて接触させ、3次元仮想モデル空間の座標系に基づいてロボット側治具50を切り出しシンボル152の所定位置に接触させる際に得る、ロボット側治具50の座標と切り出しシンボル152の座標との第1の差異情報をインターフェース106を介して取得し、第1の差異情報に基づいて、3次元仮想モデル空間の座標系を較正する。
本実施形態によれば、較正の精度のバラつきを抑制可能な荷役装置10の制御装置14、及び、荷役装置10を提供することができる。
As described above, the processor 102 according to the present embodiment controls the robot 12 and moves the robot-side jig 50 to be moved by the robot 12 in the real space based on the coordinate system in the three-dimensional virtual model space in the coordinate system in the real space. The robot side jig 50 is brought into contact with a predetermined position of the cutout symbol 152 based on the coordinate system of the three-dimensional virtual model space by moving it toward the cutout symbol (first receiving portion) 152 whose coordinates are defined. The first difference information between the coordinates of the robot side jig 50 and the coordinates of the cutout symbol 152 obtained at the time is acquired via the interface 106, and the coordinate system of the three-dimensional virtual model space is obtained based on the first difference information. To calibrate.
According to the present embodiment, it is possible to provide the control device 14 of the cargo handling device 10 and the cargo handling device 10 capable of suppressing variations in calibration accuracy.

[第3実施形態]
図9を用いて第3実施形態に係る荷役装置10について説明する。ここでは、受治具52,54,56,58が第1実施形態で説明した荷物ケース18とは異なり、コンベヤ16のフレーム16aに固定されている。すなわち、受治具52,54,56,58が配設される位置は、荷物ケース18の4つの角部22,24,26,28に限られない。このため、受治具52,54,56,58が配設される位置は、作業対象物だけでなく、実空間の壁やロボット12に対する障害物でもよい。
[Third Embodiment]
The cargo handling device 10 according to the third embodiment will be described with reference to FIG. Here, the receiving jigs 52, 54, 56, and 58 are fixed to the frame 16a of the conveyor 16 unlike the luggage case 18 described in the first embodiment. That is, the positions where the receiving jigs 52, 54, 56, and 58 are arranged are not limited to the four corners 22, 24, 26, and 28 of the luggage case 18. Therefore, the positions where the receiving jigs 52, 54, 56, and 58 are arranged may be not only the work object but also an obstacle to the wall in the real space or the robot 12.

受治具52,54,56,58の実空間の座標系の座標の情報は、例えばQRコード(登録商標)などのコード140に格納されている。すなわち、プロセッサ102は、QRコード140の情報を受信することで、受治具52,54,56,58の実空間の座標系の座標の情報を得る。この場合、プロセッサ102が、カメラ20で撮像した情報に基づいて、受治具52,54,56,58の実空間の座標系の座標の情報を取得する必要がなくなる。このため、カメラ20による受治具52,54,56,58の認識精度に依存せず、ロボット12の可動アーム34の3次元仮想モデル空間の座標系の座標を、実空間の座標が既知である受治具52,54,56,58に較正することができる。 Information on the coordinates of the real space coordinate system of the receiving jigs 52, 54, 56, and 58 is stored in a code 140 such as a QR code (registered trademark). That is, the processor 102 receives the information of the QR code 140 to obtain the information of the coordinates of the coordinate system in the real space of the receiving jigs 52, 54, 56, 58. In this case, it is not necessary for the processor 102 to acquire the coordinate information of the real space coordinate system of the receiving jigs 52, 54, 56, 58 based on the information captured by the camera 20. Therefore, the coordinates of the coordinate system of the three-dimensional virtual model space of the movable arm 34 of the robot 12 and the coordinates of the real space are known without depending on the recognition accuracy of the receiving jigs 52, 54, 56, 58 by the camera 20. It can be calibrated to certain receiving jigs 52, 54, 56, 58.

プロセッサ102は、ロボット12に取り付けたロボット側治具50を、受治具52,54,56,58の実空間の座標系の座標の位置に向けてそれぞれ移動させ、座標系の差異検査(ステップS2)を行う。 The processor 102 moves the robot-side jig 50 attached to the robot 12 toward the position of the coordinates of the coordinate system in the real space of the receiving jigs 52, 54, 56, and 58, respectively, and inspects the difference in the coordinate system (step). Perform S2).

第2実施形態で説明したように、QRコード140の切り出しシンボル152,154,156の少なくとも1つを用いて座標系の差異検査(ステップS2)をさらに実施してもよい。この場合、例えば5箇所以上で座標系の差異検査(ステップS2)を実施することができる。このように、より多くの箇所で座標系の差異検査(ステップS2)を実施し、較正を行う際にその情報を用いることで、較正の信頼性(精度)を向上させる。 As described in the second embodiment, the difference check of the coordinate system (step S2) may be further performed using at least one of the cutout symbols 152, 154, 156 of the QR code 140. In this case, for example, the coordinate system difference inspection (step S2) can be performed at five or more locations. In this way, the reliability (accuracy) of the calibration is improved by performing the difference check of the coordinate system (step S2) at more places and using the information when performing the calibration.

本実施形態によれば、較正の精度のバラつきを抑制可能な荷役装置10の制御装置14、及び、荷役装置10を提供することができる。 According to the present embodiment, it is possible to provide the control device 14 of the cargo handling device 10 and the cargo handling device 10 capable of suppressing variations in calibration accuracy.

本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

10…荷役装置、12…ロボット、14…制御装置、16…コンベヤ、18…荷物ケース、20…カメラ、22,24,26,28…角部、32…基台、34…多関節アーム、36…ハンド、42,44…駆動モータ、46…力覚センサ、50…ロボット側治具、52,54,56,58…受治具、62…取付治具、64…凸状の嵌合部、72…取付治具、74…凹状の嵌合部、102…プロセッサ、104…メモリ、106…インターフェース、112…ストレージ、122…入力部、124…表示部、126…タッチパネル。 10 ... Cargo handling device, 12 ... Robot, 14 ... Control device, 16 ... Conveyor, 18 ... Luggage case, 20 ... Camera, 22, 24, 26, 28 ... Corner, 32 ... Base, 34 ... Articulated arm, 36 ... hand, 42, 44 ... drive motor, 46 ... force sensor, 50 ... robot side jig, 52, 54, 56, 58 ... receiving jig, 62 ... mounting jig, 64 ... convex fitting part, 72 ... Mounting jig, 74 ... Concave fitting part, 102 ... Processor, 104 ... Memory, 106 ... Interface, 112 ... Storage, 122 ... Input part, 124 ... Display part, 126 ... Touch panel.

Claims (15)

対象物である荷物を荷役するロボットの動作を制御するプロセッサと、
前記プロセッサにより制御され、前記ロボットと通信するインターフェースと、
を備え、
前記プロセッサは、
前記ロボットを制御し、3次元仮想モデル空間の座標系に基づいて、実空間における前記ロボットにより移動させるロボット側治具を前記実空間の座標系の座標が規定される第1受部に向けて移動させて接触させ、
前記3次元仮想モデル空間の座標系に基づいて前記ロボット側治具を前記第1受部の所定位置に接触させる際に得る、前記ロボット側治具の座標と前記第1受部の座標との第1の差異情報を前記インターフェースを介して取得し、
前記第1の差異情報に基づいて、前記3次元仮想モデル空間の座標系を較正する、荷役装置の制御装置。
A processor that controls the operation of a robot that handles cargo, which is an object,
An interface controlled by the processor and communicating with the robot,
With
The processor
The robot-side jig that controls the robot and moves it by the robot in the real space based on the coordinate system in the three-dimensional virtual model space is directed toward the first receiving portion in which the coordinates of the coordinate system in the real space are defined. Move and touch,
The coordinates of the robot-side jig and the coordinates of the first receiving portion obtained when the robot-side jig is brought into contact with a predetermined position of the first receiving portion based on the coordinate system of the three-dimensional virtual model space. The first difference information is acquired via the interface,
A control device for a cargo handling device that calibrates a coordinate system in the three-dimensional virtual model space based on the first difference information.
前記プロセッサは、前記第1の差異情報を、前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標に基づいて取得する、請求項1に記載の制御装置。 The control device according to claim 1, wherein the processor acquires the first difference information based on the coordinates of the robot-side jig in the coordinate system of the three-dimensional virtual model space. 前記プロセッサは、
前記ロボット側治具が前記第1受部の所定位置に接触したことの接触情報を、前記ロボットを通して取得し、
前記接触情報に基づいて、前記ロボット側治具の移動を停止させ、
前記ロボット側治具の移動を停止させたときの前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標を得る、請求項1又は請求項2に記載の制御装置。
The processor
The contact information that the robot-side jig has come into contact with the predetermined position of the first receiving portion is acquired through the robot, and the contact information is obtained.
Based on the contact information, the movement of the robot side jig is stopped, and the movement is stopped.
The control device according to claim 1 or 2, wherein the coordinates of the robot-side jig in the coordinate system of the three-dimensional virtual model space when the movement of the robot-side jig is stopped are obtained.
前記プロセッサは、前記第1の差異情報を取得した後、
前記ロボット側治具を、前記第1受部から離し、前記実空間の座標系の座標が規定される第2受部に向けて移動させて接触させ、
前記ロボット側治具を前記第2受部に接触させたときに得る、前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標に基づいて、前記ロボット側治具の座標と前記第2受部の座標との第2の差異情報を前記インターフェースを介して取得し、
前記第1の差異情報に加え前記第2の差異情報に基づいて、前記3次元仮想モデル空間の座標系を較正する、請求項1乃至請求項3のいずれか1項に記載の制御装置。
After the processor acquires the first difference information,
The robot-side jig is separated from the first receiving portion and moved toward and brought into contact with the second receiving portion in which the coordinates of the coordinate system in the real space are defined.
Based on the coordinates of the robot-side jig in the coordinate system of the three-dimensional virtual model space obtained when the robot-side jig is brought into contact with the second receiving portion, the coordinates of the robot-side jig and the first 2 Acquire the second difference information from the coordinates of the receiving part via the interface, and
The control device according to any one of claims 1 to 3, which calibrates the coordinate system of the three-dimensional virtual model space based on the second difference information in addition to the first difference information.
前記プロセッサは、前記第1の差異情報を、前記ロボットから得られる情報に基づいて取得する、請求項1乃至請求項4のいずれか1項に記載の制御装置。 The control device according to any one of claims 1 to 4, wherein the processor acquires the first difference information based on the information obtained from the robot. 前記プロセッサは、前記第1の差異情報を、前記ロボットの力覚センサ及び/又はモータから取得する情報に基づいて取得する、請求項5に記載の制御装置。 The control device according to claim 5, wherein the processor acquires the first difference information based on the information acquired from the force sensor and / or the motor of the robot. 前記プロセッサは、前記ロボットの動作を制御し、前記ロボット側治具を前記第1受部に嵌合させたとき、前記第1の差異情報を取得する、請求項1乃至請求項6のいずれか1項に記載の制御装置。 Any one of claims 1 to 6, wherein the processor controls the operation of the robot and acquires the first difference information when the robot-side jig is fitted to the first receiving portion. The control device according to item 1. 請求項1乃至請求項7のいずれか1項に記載に制御装置と、
前記制御装置からの信号により、3次元仮想モデル空間の座標系に基づいてハンドを移動させるロボットと、
前記ロボットにより前記3次元仮想モデル空間の座標系において移動するロボット側治具と、
前記実空間の座標系の座標が規定される第1受部と
を有する、荷役装置。
The control device according to any one of claims 1 to 7.
A robot that moves the hand based on the coordinate system of the three-dimensional virtual model space by the signal from the control device, and
A robot-side jig that is moved by the robot in the coordinate system of the three-dimensional virtual model space,
A cargo handling device having a first receiving portion in which the coordinates of the real space coordinate system are defined.
前記ロボットは、前記ロボット側治具と前記第1受部との接触を検知する力覚センサを有し、
前記制御装置の前記プロセッサは、前記力覚センサからの情報に基づいて前記第1受部に対する前記ロボット側治具の移動を制御する、請求項8に記載の荷役装置。
The robot has a force sensor that detects contact between the robot-side jig and the first receiving portion.
The cargo handling device according to claim 8, wherein the processor of the control device controls the movement of the robot-side jig with respect to the first receiving unit based on information from the force sensor.
前記プロセッサは、
前記インターフェースを介して、前記ロボットの前記力覚センサから取得する情報に基づいて、前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標を算出し、
前記3次元仮想モデル空間の座標系に基づいて前記ロボット側治具を前記第1受部の所定位置に接触させる際、前記力覚センサから取得する情報に基づいて、前記第1の差異情報を前記インターフェースを介して取得し、算出する、請求項9に記載の荷役装置。
The processor
The coordinates of the robot-side jig in the coordinate system of the three-dimensional virtual model space are calculated based on the information acquired from the force sensor of the robot via the interface.
When the robot side jig is brought into contact with a predetermined position of the first receiving portion based on the coordinate system of the three-dimensional virtual model space, the first difference information is obtained based on the information acquired from the force sensor. The cargo handling device according to claim 9, which is acquired and calculated via the interface.
前記第1受部が配置されコンベヤに載置する荷物ケースを有する、請求項8乃至請求項10のいずれか1項に記載の荷役装置。 The cargo handling device according to any one of claims 8 to 10, further comprising a luggage case in which the first receiving portion is arranged and placed on a conveyor. 前記荷物ケースは、上端に4つの角を有し、
前記4つの角の1つに前記第1受部が配置され、
前記4つの角の残りの3つの角のうち、少なくとも1つに前記第1受部とは異なる第2受部が配置されている、請求項11に記載の荷役装置。
The luggage case has four corners at the top and
The first receiving portion is arranged at one of the four corners.
The cargo handling device according to claim 11, wherein a second receiving portion different from the first receiving portion is arranged in at least one of the remaining three corners of the four corners.
前記ロボット側治具及び前記第1受部は、嵌合可能である、請求項8乃至請求項12のいずれか1項に記載の荷役装置。 The cargo handling device according to any one of claims 8 to 12, wherein the robot-side jig and the first receiving portion can be fitted. 前記第1受部及び前記第2受部を含むコードを設置又は表示する表示部と、
前記第1受部及び前記第2受部を含む前記コードを撮像可能で、前記インターフェースを介して前記プロセッサと通信するイメージセンサーと
を備え、
前記プロセッサは、前記表示部の前記第1受部及び前記第2受部の情報、及び、前記コードの情報を前記イメージセンサーを介して取得する、請求項12に記載の荷役装置。
A display unit that installs or displays a code including the first receiving unit and the second receiving unit, and
An image sensor capable of imaging the code including the first receiving portion and the second receiving portion and communicating with the processor via the interface is provided.
The cargo handling device according to claim 12, wherein the processor acquires the information of the first receiving unit and the second receiving unit of the display unit and the information of the code via the image sensor.
前記コードの情報は、前記実空間の座標系における前記第1受部及び前記第2受部の座標を含む、請求項14に記載の荷役装置。 The cargo handling device according to claim 14, wherein the information of the code includes the coordinates of the first receiving portion and the second receiving portion in the coordinate system in the real space.
JP2019169119A 2019-09-18 2019-09-18 Control device for cargo handling equipment and cargo handling equipment Active JP7326082B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169119A JP7326082B2 (en) 2019-09-18 2019-09-18 Control device for cargo handling equipment and cargo handling equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169119A JP7326082B2 (en) 2019-09-18 2019-09-18 Control device for cargo handling equipment and cargo handling equipment

Publications (2)

Publication Number Publication Date
JP2021045813A true JP2021045813A (en) 2021-03-25
JP7326082B2 JP7326082B2 (en) 2023-08-15

Family

ID=74877300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169119A Active JP7326082B2 (en) 2019-09-18 2019-09-18 Control device for cargo handling equipment and cargo handling equipment

Country Status (1)

Country Link
JP (1) JP7326082B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023243001A1 (en) * 2022-06-15 2023-12-21 ファナック株式会社 Robot programming device and robot programming system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04211807A (en) * 1990-04-20 1992-08-03 Hitachi Ltd Method and device for estimating installing error of robot and robot drive controlling method, working bench with standard, and standard
JPH09146624A (en) * 1995-11-27 1997-06-06 Matsushita Electric Works Ltd Method and device for automatically teaching assembly robot
JPH09254063A (en) * 1996-03-18 1997-09-30 Mitsubishi Electric Corp Stacking robot system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4211807B2 (en) 2000-11-07 2009-01-21 ソニー株式会社 Active matrix display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04211807A (en) * 1990-04-20 1992-08-03 Hitachi Ltd Method and device for estimating installing error of robot and robot drive controlling method, working bench with standard, and standard
JPH09146624A (en) * 1995-11-27 1997-06-06 Matsushita Electric Works Ltd Method and device for automatically teaching assembly robot
JPH09254063A (en) * 1996-03-18 1997-09-30 Mitsubishi Electric Corp Stacking robot system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023243001A1 (en) * 2022-06-15 2023-12-21 ファナック株式会社 Robot programming device and robot programming system

Also Published As

Publication number Publication date
JP7326082B2 (en) 2023-08-15

Similar Documents

Publication Publication Date Title
CN111776762B (en) Robotic system with automated package scanning and registration mechanism and method of operation thereof
JP6905462B2 (en) Wall board pasting method, wall board pasting device, and computer program
CN110958425B (en) Information processing apparatus, information processing method, and system
US9156160B2 (en) Robot system, calibration method, and method for producing to-be-processed material
EP3383593B1 (en) Teaching an industrial robot to pick parts
US20140277722A1 (en) Robot system, calibration method, and method for producing to-be-processed material
EP3566824B1 (en) Method, apparatus, computer-readable storage media and a computer program for robotic programming
EP2921267A2 (en) Robot system, calibration method in robot system, and position correcting method in robot system
EP2221152A1 (en) A robot system and a method for picking and placing components
EP3238883B1 (en) Robot
CN113544069B (en) Robot hand, robot and robot system
US10759056B2 (en) Control unit for articulated robot
CN112292235B (en) Robot control device, robot control method, and recording medium
US10537988B2 (en) Controller, robot and robot system
CN110587592B (en) Robot control device, robot control method, and computer-readable recording medium
US10864643B2 (en) Substrate conveying apparatus
JP2021045813A (en) Control device for cargo handling gear, and cargo handling gear
KR20190085979A (en) Component mounting apparatus and control method thereof
WO2016186061A1 (en) Robot system and robot device
JP6824214B2 (en) Holding mechanism, manipulator, and handling robot system
WO2020045277A1 (en) Robot and origin position adjustment method therefor
JP2007237394A (en) Workpiece positioning device
WO2022195944A1 (en) Robot system, and control method for robot system
CN113573996B (en) Robot hand, robot and robot system
JP7341238B2 (en) automatic assembly system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230105

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7326082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150