JP2021045813A - Control device for cargo handling gear, and cargo handling gear - Google Patents
Control device for cargo handling gear, and cargo handling gear Download PDFInfo
- Publication number
- JP2021045813A JP2021045813A JP2019169119A JP2019169119A JP2021045813A JP 2021045813 A JP2021045813 A JP 2021045813A JP 2019169119 A JP2019169119 A JP 2019169119A JP 2019169119 A JP2019169119 A JP 2019169119A JP 2021045813 A JP2021045813 A JP 2021045813A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- coordinate system
- processor
- side jig
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 claims 1
- 230000001105 regulatory effect Effects 0.000 abstract description 5
- 230000005856 abnormality Effects 0.000 description 7
- 238000009434 installation Methods 0.000 description 7
- 238000000034 method Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000007689 inspection Methods 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 229910019760 S109-No Inorganic materials 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明の実施形態は、荷役装置の制御装置、及び、荷役装置に関する。 An embodiment of the present invention relates to a control device for a cargo handling device and a cargo handling device.
荷役装置におけるロボットの座標系の較正(キャリブレーション)を実施する場合、従来から、ティーチングペンダントを操作し、例えばロボットのハンドを較正に適した位置に移動させて実施している。 When calibrating the coordinate system of a robot in a cargo handling device, conventionally, the teaching pendant is operated and, for example, the hand of the robot is moved to a position suitable for calibration.
ティーチングペンダントを用いて操作者がハンドを動かすため、較正の精度にバラつきが生じやすい。 Since the operator moves the hand using the teaching pendant, the accuracy of calibration tends to vary.
本発明が解決しようとする課題は、較正の精度のバラつきを抑制可能な荷役装置の制御装置、及び、荷役装置を提供することである。 An object to be solved by the present invention is to provide a control device for a cargo handling device capable of suppressing variations in calibration accuracy, and a cargo handling device.
実施形態による荷役装置の制御装置は、実施形態による荷役装置の制御装置は、対象物である荷物を荷役するロボットの動作を制御するプロセッサと、プロセッサにより制御され、ロボットと通信するインターフェースとを備える。プロセッサは、ロボットを制御し、3次元仮想モデル空間の座標系に基づいて、実空間におけるロボットにより移動させるロボット側治具を実空間の座標系の座標が規定される第1受部に向けて移動させて接触させ、3次元仮想モデル空間の座標系に基づいてロボット側治具を第1受部の所定位置に接触させる際に得る、ロボット側治具の座標と第1受部の座標との第1の差異情報をインターフェースを介して取得し、第1の差異情報に基づいて、3次元仮想モデル空間の座標系を較正する。 The control device of the cargo handling device according to the embodiment includes a processor that controls the operation of the robot that handles the cargo that is the object, and an interface that is controlled by the processor and communicates with the robot. .. The processor controls the robot and, based on the coordinate system of the three-dimensional virtual model space, directs the robot-side jig that is moved by the robot in the real space toward the first receiving unit in which the coordinates of the coordinate system of the real space are defined. The coordinates of the robot side jig and the coordinates of the first receiving part obtained when the robot side jig is brought into contact with a predetermined position of the first receiving part based on the coordinate system of the three-dimensional virtual model space by moving and touching. The first difference information of is acquired through the interface, and the coordinate system of the three-dimensional virtual model space is calibrated based on the first difference information.
以下、図面を参照しながら荷役装置10について説明する。図面は模式的または概念的なものである。
Hereinafter, the
[第1実施形態]
図1から図7を用いて第1実施形態に係る荷役装置10について説明する。
[First Embodiment]
The
図1及び図2に示すように、本実施形態に係る荷役装置10は、対象物である荷物を荷役するロボット12と、ロボット12の動作を制御する制御装置(ロボットコントローラ)14と、コンベヤ16と、コンベヤ16に載置され搬送される荷物ケース18と、カメラ(イメージセンサー)20とを有する。
As shown in FIGS. 1 and 2, the
図1に示すように、ロボット12は、コンベヤ16の側方に配置されている。カメラ20は、コンベヤ16の上方に配置されている。
As shown in FIG. 1, the
制御装置14の一例は、例えばPCである。図2に示す制御装置14は、本実施形態では、ロボット12、コンベヤ16、及び、カメラ20を制御する。制御装置14は、有線でロボット12、コンベヤ16、及び、カメラ20に接続されていてもよく、無線で接続されていてもよい。
An example of the
例えば制御装置14は、ロボット12の専用の制御装置であってもよい。この場合、例えばコンベヤ16及びカメラ20の制御装置は、ロボット12の制御装置14とは別のものを用いる。この場合も、荷役装置10の稼働中、ロボット12の制御装置14と、コンベヤ16及びカメラ20の制御装置とが有線/無線の通信により、互いに情報を送受信し続ける。
For example, the
図1に示すように、荷物ケース18は、本実施形態では略直方体状の適宜の大きさの箱型である。コンベヤ16は、適宜の荷物Bを入れた荷物ケース18を所定の方向に搬送する。コンベヤ16は、ベルトコンベア、ローラコンベア等、種々のものを用いる。制御装置14は、コンベヤ16の搬送速度を一定としても、可変としてもよい。
As shown in FIG. 1, the
図1及び図2に示すカメラ20は、制御装置14による制御により、コンベヤ16及び荷物ケース18の荷物Bを撮像する。制御装置14は、カメラ20で撮像した画像情報に基づいて、荷物ケース18及び荷物Bの位置、大きさ、及び、形状を認識する。
The
ロボット12に係る演算は、制御装置14で行う。制御装置14は、ロボット12と制御信号を送受信する。
The calculation related to the
図1に示すように、ロボット12は、基台32と、基台32から上方に延びる多関節アーム(ロボット12の可動部)34とを有する。基台32は、例えば工場などの床面に対する移動が防止されるように、床面に支持又は固定されている。多関節アーム34は、その先端にハンド36を有する。このため、本実施形態では、ハンド36はアーム34の一部である。ロボット12の形態は、ピッキング動作を行う垂直多関節型ロボットであっても、別のものであってもよい。
As shown in FIG. 1, the
ロボット12は、床面に支持又は固定されるほか、天井又は適宜のフレーム等から吊り下げられていてもよい。
The
図1及び図2に示すロボット12のアーム34は、制御装置14からの信号に基づいて、コンベヤ16及びカメラ20と連動して動作する。ハンド36も、制御装置14からの信号に基づいて、コンベヤ16及びカメラ20と連動して動作する。
The
制御装置14は、例えばコンベヤ16に載置され運ばれる荷物ケース18の画像情報をカメラ20を通して取得し、信号処理により認識し、認識結果に基づいて、ロボット12を動かす。制御装置14は、荷物ケース18に入れられた荷物Bをピッキングし、例えば荷物ケース18とは異なる所望の位置に載置する。
For example, the
図1及び図2に示すように、荷役装置10は、ロボット側治具(較正用の可動マーカ)50と、複数の受治具(較正用の規定マーカ)52,54,56,58とを有する。ここでは荷役装置10が4つの受治具52,54,56,58を有する例について説明する。受治具の数は、複数であることが好適である。使用する受治具の数が多ければ多いほど、後述する較正の精度を上げることができる。
As shown in FIGS. 1 and 2, the
ロボット側治具50は、例えばハンド36に固定される。図3に示すように、ロボット側治具50は、ハンド36に取り付けられる取付治具62と、取付治具62に固定又は一体化された例えば凸状の嵌合部64とを有する。ロボット側治具50の取付治具62は、ハンド36に対して例えばネジの締結により固定される。ハンド36を構成する部品自体にロボット側治具50が形成されていてもよい。凸状の嵌合部64は、本実施形態では円錐状である。嵌合部64は、円錐のほか、円錐台、四角錐などの多角錐、四角錐台などの多角錐台等、適宜の凸状に形成される。
The
図4には、受治具(受部)52,54,56,58のうち第1受治具52を代表して示す。図1に示すように、受治具52,54,56,58は、例えば、荷物ケース18の上端18aの4つの角部22,24,26,28にそれぞれ固定される。図4に示すように、受治具52は、取付治具72と、取付治具72の上側に固定又は一体化された凹状の嵌合部74とを有する。取付治具72はそれぞれ略L字状の溝を有し、荷物ケース18の上端18aの各角部22,24,26,28にそれぞれ固定される。凹状の嵌合部74は、本実施形態では円錐状にくり抜かれた形状を持つ。受治具54,56,58は、受治具52と同じ形状及び大きさに形成されている。嵌合部74は、円錐のほか、円錐台、四角錐などの多角錐、四角錐台などの多角錐台等、ロボット側治具50の凸状の嵌合部64が嵌合可能な適宜の凹状に形成される。
FIG. 4 shows the first receiving
ロボット側治具50の凸状の嵌合部64の傾斜面は、受治具52,54,56,58の凹状の嵌合部74の傾斜面に接触可能に形成されている。このため、図5に示すように、受治具52,54,56,58に対してロボット側治具50が嵌合され得る。ロボット側治具50と受治具52とが嵌合した状態のとき、ロボット側治具50及び受治具52の位置が同一であり、実空間の座標系の座標が同一である、とする。
The inclined surface of the convex
ロボット側治具50が凸状の嵌合部64を有する代わりに、凹状の嵌合部を有し、受治具52,54,56,58が凹状の嵌合部74を有する代わりに、凸状の嵌合部を有してもよい。
Instead of the robot-
荷物ケース18の上端18aの4つの角部22,24,26,28に載置された受治具52,54,56,58は、カメラ20で荷物ケース18をコンベヤ16の上方から撮影した際に、荷物ケース18を認識するための特徴点となり得る。
The receiving jigs 52, 54, 56, 58 mounted on the four
図2に示すように、制御装置14は、ロボット12の動作を制御するプロセッサ102と、プロセッサ102に接続されたメモリ104と、複数のインターフェース106とを有する。ここでのメモリ104は、例えばRAM及びROMを含む。メモリ104は、ストレージなどの不揮発性記憶装置を含み得る。
As shown in FIG. 2, the
プロセッサ102には、インターフェース106を介して例えばストレージ112が接続されている。プロセッサ102は、それぞれインターフェース106を介して、プロセッサ102に各種の信号の入力を行う入力部122と、プロセッサ102からの信号に基づいて各種の情報を表示する表示部124とを有する。入力部122及び表示部124は、例えばタッチパネル126等を用いることで、一体化し得る。タッチパネル126と、制御装置14とは一体化し得る。
For example, a
プロセッサ102は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)などで構成される。制御装置14は、複数のプロセッサ102を有していてもよい。すなわち、制御装置14は、1又は複数のプロセッサ102を有し得る。本実施形態では、プロセッサ102は、図2に示すように、CPUを用いるものとして説明する。
プロセッサ102は、CPUの代わりに、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)のいずれか、又は、これらの組み合わせで構成されていてもよい。
The
The
ストレージ112は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの不揮発性の記憶装置で構成される。
The
プロセッサ102は、メモリ104及び/又はストレージ112に格納した各種プログラムを読み出して、実行することで、制御対象に応じた制御、及び、各種の処理を実現する。メモリ104及び/又はストレージ112には、基本的な機能を実現するためのシステムプログラムに加えて、制御対象のロボット12に応じて作成されるプログラムが格納されている。
The
インターフェース106は、ロボット12、コンベヤ16、カメラ20、ストレージ112、タッチパネル126等の各要素を有線で接続してもよく、無線で接続してもよい。
The
インターフェース106は、プロセッサ102により制御され、ロボット12と通信する。プロセッサ102には、インターフェース106を介して、ロボット12のアーム34が接続される。アーム34は、1又は複数のモータ42を有する。アーム34のハンド36は、さらに、1又は複数のモータ44を有する。ハンド36の先端付近には、力覚センサ46が取り付けられている。力覚センサ46で検知した信号は、プロセッサ102に入力され、処理される。力覚センサ46は、ハンド36を含むアーム34の制御に使用される。これらモータ42,44及び力覚センサ46は、インターフェース106を介してプロセッサ102に接続されている。
The
ロボット12は、例えば、基台32の適宜の位置を、XYZ直交座標系又は極座標系の原点とする。原点の位置は、固定されているものとする。これらの情報は、メモリ104及び/又はストレージ112に格納されている。
The
ロボット12は、基台32の座標系のほか、ハンド36を含むアーム34の各関節(モータ42,44)に座標系を設定することができる。本実施形態では、これら各関節の座標系をひとまとめにして、3次元仮想モデル空間の座標系と称する。3次元仮想モデル空間は、ロボット12をはじめ、作業対象物、壁、コンベヤ16、カメラ20を含むセンサ、その他障害物など、荷役装置10内に存在する全ての物体が配置され、設計値から求められる仮想的に作成された空間を指す。座標系を含む3次元仮想モデル空間の情報は、メモリ104及び/又はストレージ112に格納されている。
In addition to the coordinate system of the
プロセッサ102は、3次元仮想モデル空間の情報を基に、ロボット12のアーム34を制御する。ロボット12のハンド36を含むアーム34は、プログラムにしたがってプロセッサ102から出力される信号により、3次元仮想モデル空間の座標系に基づいて位置及び姿勢が制御される。
The
ここで、実空間の座標系と、3次元仮想モデル空間の座標系との原点は一致するものとする。ロボット12の各関節における座標系は、床面に対するロボット12の固定位置による誤差、ロボット12の組み立て誤差、その他の要因により、ズレが生じる可能性がある。このため、実空間の座標系及び3次元仮想モデル空間の座標系の原点に対する座標は、ズレが生じる可能性がある。
Here, it is assumed that the origins of the coordinate system of the real space and the coordinate system of the three-dimensional virtual model space are the same. The coordinate system at each joint of the
プロセッサ102は、3次元仮想モデル空間の座標系に関する情報を、較正の実施により更新し得る。プロセッサ102は、3次元仮想モデル空間の座標系に関する情報について、更新前(較正の実施前)の情報、及び、更新後(較正の実施後)の情報の両方をメモリ104及び/又はストレージ112に格納してもよい。プロセッサ102は、3次元仮想モデル空間の座標系に関する情報について、更新後の情報のみをメモリ104及び/又はストレージ112に格納してもよい。
ロボット12は、例えば制御装置14のメモリ104、又は、制御装置14に接続されたストレージ112に格納されたプログラムにしたがって動作する。ハンド36を含むアーム34は、プログラムに基づくプロセッサ102からの信号により、3次元仮想モデル空間の座標系にしたがって、適宜の位置に動かされる。
The
プロセッサ102は、プログラムにしたがって、ロボット12のハンド36を含むアーム34がピッキングの対象である荷物ケース18内の荷物Bとは異なる適宜の物体に当たったこと、ハンド36を用いて荷物ケース18内の荷物Bを掴むことができなかったことなど、ロボット12に対するイベントの発生情報を取得し、メモリ104及び/又はストレージ112に格納する。プロセッサ102は、一定の時間経過を1つのイベントとし、メモリ104及び/又はストレージ112に格納してもよい。プロセッサ102は、プログラムにしたがって、これらのイベント情報に基づいて、較正を実施する。
According to the program, the
イベント情報は、その他、ロボット12、コンベヤ16、又は、カメラ20の新規設置、ロボット12、コンベヤ16、又は、カメラ20の異常、ロボット12を動かす各種のモータ42,44の異常、さらには、力覚センサ46の異常等がある。
The event information includes other information such as the new installation of the
荷役装置10のロボット12では、所望の設置位置に対して実際の設置位置に誤差が生じる可能性がある。ロボット12は、運用中に例えば振動等が原因で位置ズレが生じる可能性がある。このため、荷役装置10では、ロボット12の制御に係る3次元仮想モデル空間における座標系を、実空間における座標系に一致させる較正を行う必要がある。以後、「較正の実施」とは、3次元仮想モデル空間における座標系を、実空間における座標系に一致又は略一致させることをいう。
In the
較正は、荷役装置10のより多数の箇所に対して実施することが好適である。較正は、工場出荷時に一度実施すればよいものではなく、定期的、又は、所定のイベント発生時に実施する。
Calibration is preferably performed on a larger number of locations on the
図1に示す本実施形態における荷役装置10は、例えば、荷物ケース18の4つの角部22,24,26,28それぞれを用いて、較正を実施する。このため、本実施形態に係る荷役装置10の較正の実施は、極力人間の手を介さず、速く、且つ効率よく行われることが望ましい。
The
上述したように、ロボット12の基台32の適宜の位置を、実空間の座標系(XYZ直交座標系又は極座標系)の原点とする。ロボット12の基台32の適宜の位置を、3次元仮想モデル空間における座標系(XYZ直交座標系又は極座標系)の原点とする。原点の位置は、固定されているものとする。
As described above, the appropriate position of the
ここでは、説明の簡略化のため、ロボット側治具50がハンド36に予め固定されているものとする。すなわち、ハンド36は、ロボット側治具50が固定された状態で、荷物Bをピックアップする。また、第1受治具52、第2受治具54、第3受治具56及び第4受治具58は荷物ケース18の4つの角部22,24,26,28にそれぞれ予め固定されているものとする。
Here, for the sake of simplification of the description, it is assumed that the
コンベヤ16に荷物ケース18が載置されて適宜の位置に搬送され、停止した状態で、プロセッサ102は、カメラ20により撮像される荷物ケース18の上端18aの4つの受治具(第1受治具52、第2受治具54、第3受治具56及び第4受治具58)で、各受治具の実空間の座標系の座標を認識可能であるものとする。
In a state where the
本実施形態では、荷役装置10は、ロボット12の3次元仮想モデル空間の座標系が、実空間の座標系と一致又は略一致している状態を考慮する。ここでの較正は、例えば0mmから数センチメートルまでの間の僅かな差異を調整するものとする。座標系同士のズレが0mmである場合、座標系同士に実際にズレがあるもの、実際にズレがないものの両方を含む。
In the present embodiment, the
本実施形態に係る荷役装置10の動作について図6及び図7を用いて説明する。ここでは主に、制御装置14のプロセッサ102について説明する。
The operation of the
例えば、ロボット12の設置時や、荷役装置10の電源投入時、プロセッサ102は、荷役装置10のロボット12の3次元仮想モデル空間の座標系を実空間の座標系に一致させる較正を実施する条件を満たすか否か、判断する(ステップS1)。プロセッサ102は、具体的には、較正を実施する必要があるか否か、判断する。
For example, when the
ここで、ステップS1において、較正を実施する条件を満たす場合を4つ例示する。 Here, in step S1, four cases where the conditions for performing calibration are satisfied will be illustrated.
1.ロボット12の据え付け及び電源投入時
ロボット12を据え付けた際、及び、電源を投入した際には、ロボット12の設置誤差を吸収するために、較正の実施が必要である。
1. 1. When the
2.ロボット12が何かに接触したことを検知したとき
ロボット12が、荷物ケース18の側面や縁、その他、荷役装置10内に存在する何らかに接触した場合、衝突前と衝突後とで設置位置にズレが生じる可能性が考えられる。その位置ズレを解消するために、較正の実施が必要である。
2. When the
3.ピッキングの失敗が連続したとき
荷役装置10の運用時、例えば振動等が原因となり、ロボット12、コンベヤ16、カメラ20の相対的な設置位置にズレが生じる可能性がある。例えば荷物Bを荷物ケース18からピッキングする場合、荷物Bのピッキングに失敗することが起こりやすくなる。例えば2回連続など、複数回連続でピッキングを失敗した場合、位置ズレを解消するために、較正の実施が必要である。
3. 3. When picking failures are continuous During operation of the
4.所定の時間が経過したとき
荷役装置10の運用時、時間の経過とともに、ロボット12、コンベヤ16、カメラ20の相対的な設置位置にズレが生じる可能性がある。このような位置ズレが生じないようにするために、定期的に較正の実施が必要である。
4. When a predetermined time has passed During the operation of the
プロセッサ102が、較正を実施する条件を満たしていると判断した場合(ステップS1−Yes)、プロセッサ102は、較正を実施する前段階として、実空間における座標系の適宜の座標に対する、3次元仮想モデル空間における座標系の適宜の座標の差異を算出する(ステップS2)。すなわち、プロセッサ102は、実空間における座標系の適宜の座標に対する、3次元仮想モデル空間における座標系の適宜の座標の差異を検査する。
When the
プロセッサ102は、ステップS2における検査を実施した後、ステップS2での算出結果に基づいて、較正を実施し新たな3次元仮想モデル空間の座標系を設定するか否か判断する(ステップS3)。較正を実施する場合(ステップS3−Yes)、3次元仮想モデル空間の座標系の情報を更新する。3次元仮想モデル空間の座標系の較正を実施する場合(ステップS3−Yes)、通常運転(ステップS4)を行う前に実施する。
After performing the inspection in step S2, the
較正の実施条件を満たしていない場合(ステップS1−No)、プロセッサ102は、通常運転(ステップS4)を行う。
When the calibration execution condition is not satisfied (step S1-No), the
ここで、通常運転(ステップS4)とは、例えば、以下の一連の動作をいう。プロセッサ102は、コンベヤ16で搬送された荷物ケース18及び荷物ケース18内の荷物Bをカメラ20での撮影により認識する。プロセッサ102は、認識した荷物Bをロボット12のアーム34を動かし、ハンド36で荷物Bをピックアップさせる。プロセッサ102は、ハンド36で荷物Bをつかんだ状態でアーム34を適宜に移動させ、荷物Bを所望の位置に配置し、ハンド36から荷物Bを放す。プロセッサ102は、アーム34を初期位置など、適宜の位置に移動させる。
Here, the normal operation (step S4) means, for example, the following series of operations. The
図7に示すように、ステップS2における検査は、以下のように実施する。 As shown in FIG. 7, the inspection in step S2 is performed as follows.
プロセッサ102は、コンベヤ16を動かし、荷物ケース18を適宜の位置に移動させる。プロセッサ102は、カメラ20で荷物ケース18の受治具52,54,56,58を撮像可能な位置で、荷物ケース18を停止させる(ステップS101)。
The
プロセッサ102は、カメラ20で荷物ケース18の受治具52,54,56,58を撮像し、受治具52,54,56,58の実空間の座標系の座標に関する情報を取得する(ステップS102)。プロセッサ102は、受治具52,54,56,58の実空間の座標系の座標に関する情報を、メモリ104及び/又はストレージ112に格納する。
The
プロセッサ102は、アーム34を動かし、ハンド36に取り付けたロボット側治具50を第1受治具52に向けて移動させる(ステップS103)。このときのロボット側治具50の目標位置(第1の目標位置)は、3次元仮想モデル空間の座標系の座標である。このとき、プロセッサ102は、力覚センサ46を用いた力制御により、ハンド36を含むアーム34を制御する。
The
ロボット12における力制御とは、ロボット12のハンド36に取り付けられた力覚センサ46からの応力(応力の負荷方向を含む)及び/又はその他の情報により、プロセッサ102が、ハンド36を含むアーム34各軸の駆動モータ42,44の電流をコントロールして、適当なトルクを発生させる制御方法のことである。ロボット12における力制御により、プロセッサ102は、接触面に対してハンド36を滑らかに倣う動作を実現できる。
The force control in the
ハンド36に力覚センサ46を配置しない場合、前述同等の情報を、ロボット12のアーム34の制御にフィードバックすることは既存技術において可能であり、その場合、力覚センサ46は、本実施形態に係る構成から除かれてもよい。
When the
プロセッサ102は、力覚センサ46を用いた力制御を行いながら、ハンド36に取り付けたロボット側治具50を第1受治具52に接触させる(ステップS104)。
プロセッサ102は、ロボット側治具50を3次元仮想モデル空間の座標系において、実空間の座標系の座標と同じ数値の座標(第1の目標位置)まで移動させたとき、ロボット側治具50が第1受治具52に接触しない場合がある(ステップS104−No)。プロセッサ102は、力覚センサ46を用いた力制御によって、ロボット側治具50が第1受治具52に接触するまで、ロボット側治具50を移動させる。このとき、プロセッサ102は、力制御により、実空間の第1受治具52の位置、すなわち、荷物ケース18を動かさないように、ハンド36を移動させる。
The
When the
図5に示すように、プロセッサ102は、ロボット12の動作を制御し、ロボット側治具50の凸状の嵌合部64を、第1受治具52の凹状の嵌合部74に嵌合させる。プロセッサ102は、ロボット側治具50を第1受治具52に接触させたことを検知した場合(ステップS104−Yes)、力覚センサ46を使用した力制御を行うことで、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に接触させる。プロセッサ102は、力覚センサ46を使用した力制御を行うことで、ロボット側治具50の凸状の嵌合部64を、受治具52の凹状の嵌合部74に収納する。プロセッサ102は、力覚センサ46で接触圧力を検知しながら、ロボット側治具50を第1受治具52に押圧する(ステップS105)。
As shown in FIG. 5, the
プロセッサ102は、例えば力覚センサ46により、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力を検出する。プロセッサ102は、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力が所定の圧力に到達したか否か判断する(ステップS106)。
The
プロセッサ102は、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力が所定の圧力に到達していないと判断した場合(ステップS106−No)、力覚センサ46で接触圧力を検知しながら、ロボット側治具50を第1受治具52に押圧する(ステップS105)。このとき、プロセッサ102は、第1受治具52の位置(実空間の座標系の座標)を移動させずに、力覚センサ46により、ロボット側治具50の凸状の嵌合部64を第1受治具52の凹状の嵌合部74に嵌合させる。
The
プロセッサ102が、ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力が所定の圧力に到達したと判断した場合(ステップS106−Yes)、プロセッサ102は、ロボット側治具50の位置(第2の目標位置)が、第1受治具52の位置に一致していると判断する。
When the
ロボット側治具50の凸状の嵌合部64を、第1受治具52の嵌合部74に嵌合させたときの圧力は、力覚センサ46により検出された情報を基にプロセッサ102により算出される。プロセッサ102は、力覚センサ46により検出された情報がある値に到達したときに嵌合したと判断する。
The pressure when the convex
ここで、プロセッサ102に接続されたメモリ104及び/又はストレージ112には、第1受治具52の実空間の座標系の座標の情報が既知(規定)の座標として格納されている。プロセッサ102は、ロボット側治具50の位置を第1受治具52の位置に一致させたときの、ロボット12のハンド36を含むアーム34の移動位置における3次元仮想モデル空間の座標系の座標に関する情報を取得する。
Here, in the
プロセッサ102は、ロボット側治具50及び第1受治具52における、実空間の座標系の座標(第2の目標位置)と3次元仮想モデル空間の座標系の座標(第1の目標位置)との差を算出する(ステップS107)。プロセッサ102は、ステップS107での実空間の座標系の座標と3次元仮想モデル空間の座標系の座標との差のズレ量の算出結果(第1の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する(ステップS108)。
The
プロセッサ102は、座標系の差異検査(ステップS2)において、較正に用いた受治具52,54,56,58の数をカウントする(ステップS109)。較正に用いる受治具52,54,56,58の数は例えばユーザの入力により予め決めておき、メモリ104及び/又はストレージ112に格納しておく。
The
ロボット側治具50が予め設定した所定の数(本実施形態では4つ)の受治具52,54,56,58にそれぞれ接触し、嵌合していない場合(ステップS109−No)、ステップS103からステップS108の処理を行う。
When the
プロセッサ102は、ロボット12のアーム34を動かし、ロボット側治具50の位置を、上述した第1受治具52とは異なる第2受治具54の位置に一致させ、すなわち、所定の押圧力で嵌合させる。プロセッサ102は、このときの、実空間の座標系の第2受治具54の座標と、3次元仮想モデル空間の座標系のロボット側治具50の座標との差のズレ量の算出結果(第2の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する。
The
プロセッサ102は、ロボット12のアーム34を動かし、ロボット側治具50の位置を、上述した第1受治具52及び第2受治具54とは異なる第3受治具56の位置に一致させ、すなわち、所定の押圧力で嵌合させる。プロセッサ102は、このときの、実空間の座標系の第3受治具56の座標と、3次元仮想モデル空間の座標系のロボット側治具50の座標との差のズレ量の算出結果(第3の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する。
The
プロセッサ102は、ロボット12のアーム34を動かし、ロボット側治具50の位置を、上述した第1受治具52、第2受治具54及び第3受治具56とは異なる第4受治具58の位置に一致させ、すなわち、所定の押圧力で嵌合させる。プロセッサ102は、このときの、実空間の座標系の第4受治具58の座標と、3次元仮想モデル空間の座標系のロボット側治具50の座標との差のズレ量の算出結果(第4の差異情報)をメモリ104及び/又はストレージ112に出力し、格納する。
The
ロボット側治具50の位置を動かす順は、第1受治具52、第2受治具54、第3受治具56、第4受治具58の順に限られない。プロセッサ102は、ロボット側治具50の位置を動かす最適な経路(順)を予め算出し得る。
The order in which the position of the robot-
ロボット側治具50が予め設定した所定の数(本実施形態では4つ)の受治具52,54,56,58にそれぞれ接触し、嵌合した場合(ステップS109−Yes)、ステップS3に進む。
When the robot-
メモリ104及び/又はストレージ112には、ロボット側治具50が予め設定した4つの受治具52,54,56,58にそれぞれ接触し、嵌合したときの、第1の差異情報、第2の差異情報、第3の差異情報及び第4の差異情報が格納されている。図6に示すように、プロセッサ102は、これら第1から第4の差異情報に基づいて、3次元仮想モデル空間の座標系を更新、すなわち、較正を実施するか否か判断する(ステップS3)。
The first difference information, the second, when the
実際には、プロセッサ102は、ロボット側治具50が予め設定した4つの受治具52,54,56,58にそれぞれ接触し、嵌合したときに取得した第1の差異情報、第2の差異情報、第3の差異情報及び第4の差異情報の信頼性を判断する。例えば、力覚センサ46等により、ロボット側治具50が受治具52,54,56,58の位置、すなわち荷物ケース18を動かした等が認識された場合、プロセッサ102は、較正を実施しないと判断(ステップS3−No)し、座標系の差異検査(ステップS2)をやり直す。
Actually, the
例えば、力覚センサ46等からの情報に基づいて、ロボット側治具50が各受治具52,54,56,58の位置を動かさず、適切に各嵌合が行われたと認識された場合、プロセッサ102は、較正を実施すると判断(ステップS3−Yes)し、較正を実施する。
For example, when it is recognized that the robot-
プロセッサ102が較正を実施する場合、プロセッサ102は、実空間の座標系の4つの座標と3次元仮想モデル空間の座標系の4つの座標とのズレ量の算出結果に基づいて、3次元仮想モデル空間の座標系の座標を、実空間の座標系の座標に合わせる処理を行う。すなわち、プロセッサ102は、メモリ104及び/又はストレージ112に格納した3次元仮想モデル空間の座標系を更新、すなわち、較正を実施する。
When the
受治具52,54,56,58の位置に対し、ロボット側治具50の位置を一致させる数は、例えば1つよりも2つ、2つよりも3つ、3つよりも4つなど、数を多くするほど、実空間の座標系に対し、更新された新たな3次元仮想モデル空間の座標系のズレを少なくする。受治具52,54,56,58の位置に対し、ロボット側治具50の位置を一致させる数を例えば1つとしても、プロセッサ102が較正を実施する際の信頼性がある、と判断したときには、較正を実施し得る。
The number of matching the positions of the
そして、プロセッサ102は、上述した通常運転(ステップS4)を行う。
Then, the
通常運転(ステップS4)を行った直後、プロセッサ102は、イベント情報の有無を判断する(ステップS5)。プロセッサ102は、通常運転(ステップS4)中にイベント情報が発生した場合(ステップS5−Yes)、そのイベント情報をメモリ104及び/又はストレージ112に格納する(ステップS6)。プロセッサ102は、通常運転(ステップS4)中にイベント情報があった場合、通常運転(ステップS4)の実施中に、メモリ104及び/又はストレージ112に格納してもよい。
Immediately after the normal operation (step S4) is performed, the
プロセッサ102は、通常運転(ステップS4)中にイベント情報がなかったと判断した場合(ステップS5−No)、次の荷物Bをピックアップする通常運転(ステップS4)を行う。
When the
イベント情報がストレージ112又はメモリ104に格納された(ステップS6)後、プロセッサ102は、荷役装置10全体の運転を停止するか否か判断する(ステップS7)。
After the event information is stored in the
プロセッサ102が、例えば、コンベヤ16の異常、カメラ20の異常、モータ42,44の異常、又は、力覚センサ46の異常の信号などのイベント情報を受けた(ステップS5)場合、その情報をストレージ112又はメモリ104に格納(ステップS6)し、プロセッサ102は、荷役装置10全体の運転を停止する(ステップS7−Yes)。もちろん、プロセッサ102は、通常運転(ステップS4)中にこれらのイベント情報を受信した場合、ただちに荷役装置10全体の運転を停止してもよい。
When the
プロセッサ102は、「前回の較正実施から所定時間が経過したこと」、例えば複数回にわたって、「アーム34の移動中にロボット12が何かの物体に接触したこと」、「ハンド36で荷物Bのピッキングを失敗したこと」、又は、「荷物Bに対するハンド36の位置ズレを検出したこと」のイベント情報の発生を認識した(ステップS5−Yes)場合、荷役装置10全体の運転を停止せず(ステップS7−No)、較正実施条件を満たすか否か、判断する(ステップS1)。
The
このように、プロセッサ102は、メモリ104及び/又はストレージ112に格納したイベント情報の内容に基づいて、荷役装置10全体の運転を停止するか否か判断する。また、プロセッサ102は、メモリ104及び/又はストレージ112に格納したイベント情報に基づいて、実空間の座標系に対し3次元仮想モデル空間の座標系の較正を行うか否か判断する。
In this way, the
このように、荷役装置10は、荷役装置10の運用開始時、及び、運用開始後に、定期的、又は、所定のイベント発生時に、自動で較正を実施することができる。
In this way, the
なお、荷物ケース18の4つの角部22,24,26,28に配置した受治具52,54,56,58は、略同一高さにある。しかしながら、受治具52,54,56,58の高さがバラバラであっても、実空間の座標系の受治具52,54,56,58の座標が規定(既知)であれば、ロボット12の動作により、ロボット側治具50を各受治具52,54,56,58に順に接触させることができる。このため、受治具52,54,56,58の位置及び向きは、例えばロボット12のハンド36が届く範囲で適宜に設定可能である。すなわち、受治具52に対するロボット側治具50の嵌合方向は、床面に対し、図5に示す上下方向に限られない。受治具52に対するロボット側治具50の嵌合方向は、例えば、床面に対し、斜め方向でもよく、水平方向でもよい。これは、他の受治具54,56,58でも同様である。
The receiving jigs 52, 54, 56, 58 arranged at the four
ロボット12の設置時や、荷役装置10の電源投入時などの、較正を実施する条件を満たす場合(ステップS1−Yes)、プロセッサ102は、例えば、ステップS2のステップS101の前に、アーム34の先端のハンド36を、ロボット側治具50が取り付けてあるツールに自動的に交換することも好適である。この場合、ハンド36に予めロボット側治具50を固定することは不要である。
When the conditions for performing calibration are satisfied (step S1-Yes) such as when the
本実施形態に係る荷役装置10は、概略、制御装置14と、制御装置14からの信号により、3次元仮想モデル空間の座標系に基づいて移動するロボット12と、ロボット12により3次元仮想モデル空間の座標系において移動するロボット側治具50と、実空間の座標系の座標が規定される第1受治具52とを有する。
ロボット12は、ロボット側治具50と第1受治具52との接触を検知するセンサ46を有する。制御装置14のプロセッサ102は、センサ46からの情報に基づいて第1受治具52に対するロボット側治具50の移動を制御する。
ロボット側治具50及び第1受治具52は、嵌合可能である。
The
The
The
本実施形態に係る制御装置14のプロセッサ102は、概略、以下を実施して、較正を行う。プロセッサ102は、3次元仮想モデル空間の座標系においてロボット12により移動させるロボット側治具50を、3次元仮想モデル空間の座標系に基づいて、実空間の座標系の座標が規定される第1受治具(受部)52に向けて移動させて接触させ、ロボット側治具50を第1受治具52の所定位置に接触させたときに得る、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得し、第1の差異情報に基づいて、3次元仮想モデル空間の座標系を較正する。
上述したように、荷役装置10がロボット側治具50と第1受治具(受部)52を用いる場合、ロボット側治具50を第1受治具52の所定位置に接触させたとき、プロセッサ102は、3次元仮想モデル空間の座標系のロボット側治具50の座標に基づいて、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得する。
本実施形態に係る制御装置14及び荷役装置10は、例えばハンド36に一方の嵌合部64を取り付けておき、荷物ケース18に他方の嵌合部74を取り付けておくことで、ティーチングペンダントの操作等、人間の手を介さず、プロセッサ102が自動で較正を実施することができる。このように、本実施形態に係る荷役装置10の制御装置14を用いることで、較正の実施を自動化することができる。そして、人間を介することがないため、本実施形態に係る荷役装置10の制御装置14を用いることで、較正の実施の際に設備を停止させる必要がなく、較正の実施の高速化が図れ、荷役装置10を効率的に用いることができる。
プロセッサ102は、荷役装置10の緊急点検時など、入力部122からの入力による較正実施の指示に基づいて、較正を実施することができる。
The
As described above, when the
The
The
プロセッサ102は、第1の差異情報を取得した後、ロボット側治具50を、第1受治具52から離し、実空間の座標系の座標が規定される第2受治具54に向けて移動させて接触させる。プロセッサ102は、ロボット側治具50を第2受治具54に接触させたときに得る、ロボット側治具50の座標と第2受治具54の座標との第2の差異情報を取得し、第1の差異情報に加え第2の差異情報に基づいて、3次元仮想モデル空間の座標系を較正し、実空間の座標系に一致又は略一致させる。
複数の位置での情報(例えば、第1の差異情報、第2の差異情報、第3の差異情報及び第4の差異情報)に基づいて較正を実施することで、較正の信頼性(精度)を向上させ、かつ、実空間の座標系に3次元仮想モデル空間の座標系をより合わせることができる。すなわち、より多数の位置での情報に基づいて較正を実施することで、較正の信頼性(精度)を向上させ、かつ、実空間の座標系に3次元仮想モデル空間の座標系をより合わせることができる。このとき、人間の操作を介する必要がないので、較正の実施の自動化だけでなく、高速化を実現することができる。
After acquiring the first difference information, the
Calibration reliability (accuracy) by performing calibration based on information at multiple positions (eg, first difference information, second difference information, third difference information, and fourth difference information). And the coordinate system of the three-dimensional virtual model space can be twisted to the coordinate system of the real space. That is, by performing the calibration based on the information at a larger number of positions, the reliability (accuracy) of the calibration is improved, and the coordinate system of the three-dimensional virtual model space is twisted with the coordinate system of the real space. Can be done. At this time, since it is not necessary to use human operation, it is possible to realize not only automation of calibration execution but also high speed.
プロセッサ102は、ロボット側治具50が第1受治具52の所定位置に接触したことの接触情報を、ロボット12を通して取得し、接触情報に基づいて、ロボット側治具50の移動を停止させ、ロボット側治具50の移動を停止させたときの3次元仮想モデル空間の座標系のロボット側治具50の座標を得る。
ロボット側治具50が例えば第1受治具52の所定位置に接触したことの接触情報は、ロボット12の力覚センサ46を用いて取得できるほか、モータ42,44の駆動トルクなどからも取得することができる。このため、プロセッサ102は、モータ42,44を用いたアーム34の公知のコンプライアンス動作等により、ロボット側治具50を例えば第1受治具52の所定位置に自動的に、より確実に接触させることができる。
The
The contact information that the robot-
ロボット12のアーム34を適宜に動かしていくと、ロボット側治具50が第1受治具52に当接する。このとき、力覚センサ46で、ロボット側治具50と第1受治具52との接触を検知する。プロセッサ102は、インターフェース106を介して、ロボット12の力覚センサ46からロボット側治具50と第1受治具52との接触情報を取得する。プロセッサ102は、力覚センサ46から取得する情報に基づいて、3次元仮想モデル空間の座標系のロボット側治具50の座標を算出可能である。このように、プロセッサ102は、3次元仮想モデル空間の座標系に基づいてロボット側治具50を第1受治具52の所定位置に接触させる際、力覚センサ46から取得する情報に基づいて、第1の差異情報をインターフェース106を介して取得し、算出する。
荷役装置10のプロセッサ102は、例えば力覚センサ46を用いる力制御のほか、フィードバック制御を行う場合がある。フィードバック制御でも同様に、プロセッサ102は、3次元仮想モデル空間の座標系に基づいてロボット側治具50を第1受治具52の所定位置に接触させる際、ロボット12のモータ42,44から取得する情報に基づいて、第1の差異情報をインターフェース106を介して取得し、算出する。
このため、ロボット側治具50を第1受治具52の所定位置に接触させたとき、本実施形態に係る制御装置のプロセッサ102は、3次元仮想モデル空間の座標系のロボット側治具50の座標の代わりに、力覚センサ46及び/又はモータ42,44すなわちロボット12から得られる応力及び/又はその他の情報に基づいて、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得してもよい。また、本実施形態に係る制御装置のプロセッサ102は、ロボット側治具50を第1受治具52の所定位置に接触させたとき、力覚センサ46及び/又はモータ42,44すなわちロボット12から得られる応力及び/又はその他の情報とともに、3次元仮想モデル空間の座標系のロボット側治具50の座標に基づいて、ロボット側治具50の座標と第1受治具52の座標との第1の差異情報を取得してもよい。
When the
The
Therefore, when the robot-
プロセッサ102は、ロボット12に関する情報を取得し、ロボット12に関する情報に基づいてロボット側治具50を動かして第1受治具52に接触させる。
ロボット12に関する情報を、プロセッサ102が較正を実施するか否か判断する際の情報として用いることができる。較正実施条件を満たしたときに較正を実施し、較正実施条件を満たさないときに較正を実施せず、通常運転を行うことで、3次元仮想モデル空間の座標を実空間の座標系に一致させながら、ロボット12による荷物Bのピッキングミスを減らすことができる。
The
Information about the
本実施形態では、図1に示す垂直多関節型ロボット12を例にして説明したが、ハンド36を含むアーム34を有するロボット12であれば、種々のロボットを用いることができる。床面に固定されるロボット12だけでなく、床面に対し動かないように置かれたロボット12であっても、較正実施条件を満たしたときに較正を行うことで、3次元仮想モデル空間の座標を実空間の座標系に一致させることができる。
In the present embodiment, the vertical articulated
また、天井や適宜のフレーム等に吊り下げられたロボット12は、原点を天井や適宜のフレーム等に採ることができる。天井や適宜のフレーム等に吊り下げられたロボット12は、較正実施条件を満たしたときに較正を行うことで、3次元仮想モデル空間の座標を較正することができる。
Further, the
ロボット12の設置時や、荷役装置10の電源投入時、較正を実施する条件を満たす場合(ステップS1−Yes)の場合、自動でロボット側治具50が取り付けてあるツールにハンド36を変更することが難しい場合がある。この場合、保守員が手動でアーム34の先端のハンド36を取り外して、ロボット側治具50を含むツールを取り付けてもよい。このため、較正の実施の際に用いるロボット側治具50は、常に荷役装置10内のハンド36などに取り付けてあっても、較正の実施時に保守員が手動でハンド36に代えて、ロボット側治具50を取り付けてもよい。
When the
ロボット側治具50の構造、及び、受治具52,54,56,58の構造は、種々、変形が可能である。
The structure of the robot-
本実施形態では、ロボット側治具50、受治具52,54,56,58を用い、さらに、力制御を行うことにより、ロボット側治具50を受治具52に接触させながら移動させることができる。このため、例えばティーチングペンダント等のマニュアル操作が不要となり、ロボット12の較正の実施の自動化を実現することができる。したがって、本実施形態によれば、較正の精度のバラつきを抑制可能な荷役装置10の制御装置14、及び、荷役装置10を提供することができる。
In the present embodiment, the
[第2実施形態]
図8を用いて第2実施形態に係る荷役装置10について説明する。ここでは、主に、プロセッサ102による座標系の差異検査(ステップS2)の変形例について説明する。
[Second Embodiment]
The
図8に示すように、荷役装置10は、例えばコンベヤ16に隣接する位置に、QRコード(登録商標)などのコード140が表示される表示部142がある。コード140は、QRコードのようなマトリクス型二次元コードのほか、スタック型二次元コードでもよい。コード140は、バーコードのような一次元コードでもよい。表示部142のコード140は実空間の座標系の座標が所定の座標に設定されている。コード140は、コード140自体の実空間の座標系の座標など、適宜の情報を含む。
As shown in FIG. 8, the
コード140がQRコードである場合、QRコード140は、3つの切り出しシンボル152,154,156、タイミングパターン、アライメントパターンを有する。
When the
プロセッサ102は、カメラ(イメージセンサー)20、又は、コード140を認識するための図示しない別のカメラ(イメージセンサー)を介して読み取ったQRコード140の情報を受信する。別のカメラは、カメラ20と同様に、インターフェース106を介してプロセッサ102と通信する。
QRコード140には、メモリ104及び/又はストレージ112に格納した情報と同じ情報を格納することができる。このため、QRコード140を作成することで、プロセッサ102は、メモリ104及び/又はストレージ112からの情報の読み出し、すなわち、アクセスが不要になり得る。QRコード140に適宜の情報を格納しておくことで、荷役装置10は、例えば入力部122によりメモリ104及び/又はストレージ112に情報を入力しなくてもよい。プロセッサ102は、メモリ104及び/又はストレージ112にアクセスし、メモリ104及び/又はストレージ112に格納された情報と、QRコード140に格納された情報とを比較し、両者の情報の信頼性を確認してもよい。
The
The
プロセッサ102は、座標系の差異検査(ステップS2)を行う場合、図7中のステップS101を実行する代わりに、カメラ20等で、3つの切り出しシンボル(受部)152,154,156を含むQRコード140を撮像する。プロセッサ102は、カメラ20等で撮像した情報をインターフェース106を介して取得する。プロセッサ102は、カメラ20等で撮像した情報に基づいてQRコード140の情報を読み取る。3つの切り出しシンボル152,154,156は実空間の座標系の座標が規定されている。すなわち、QRコード140の情報は、実空間の座標系における第1切り出しシンボル(第1受部)152、第2切り出しシンボル(第2受部)154、及び、第3切り出しシンボル(第3受部)156の座標を含む。プロセッサ102は、3つの切り出しシンボル152,154,156の実空間の座標系の座標を、QRコード140から読み出してもよく、メモリ104及び/又はストレージ112から読み出してもよい。プロセッサ102は、例えばQRコード140の特徴点である3つの切り出しシンボル152,154,156を規定部(規定マーカ)とする(ステップS102)。プロセッサ102は、ロボット側治具50を切り出しシンボル(規定部)152に接触させるようにロボット12を動作させ(ステップS103−S106)、実空間の座標系の座標と3次元仮想モデル空間の座標系の座標との差のズレ量(第1の差異情報)を算出(ステップS107)し、メモリ104及び/又はストレージ112に出力し、格納する(ステップS108)。プロセッサ102は、残りの2つの切り出しシンボル(規定部)154,156に対して同様の座標系の差異検査(ステップS109)を行う。
When the
プロセッサ102は、実空間の座標系に対して3次元仮想モデル空間の座標系のズレを解消するように、較正を実施する(ステップS3)。
The
本実施形態で説明したように、第1実施形態で説明した受治具(規定部)52,54,56,58の代わりに、QRコード(規定マーカ)140の切り出しシンボル152,154,156を用いることができる。このため、受治具52,54,56,58を取り付けた荷物ケース18を準備する必要がなくなる。
As described in the present embodiment, instead of the receiving jigs (regulated parts) 52, 54, 56, 58 described in the first embodiment, the
例えばQRコード140は、常時表示している必要はなく、必要なときに表示部142に表示させてもよい。QRコード140は、作成が容易である。このため、カメラ20等を用いて認識させたいQRコード140の情報を変更したい場合、新たなQRコード140を表示部142に表示させることができる。プロセッサ102は、例えばQRコード140を定期的、又は、所定のイベント発生直後に表示部142に表示させ、カメラ20を通してQRコード140の情報を認識することで、較正を実施する。
For example, the
このように、本実施形態に係るプロセッサ102は、ロボット12を制御し、3次元仮想モデル空間の座標系に基づいて、実空間におけるロボット12により移動させるロボット側治具50を実空間の座標系の座標が規定される切り出しシンボル(第1受部)152に向けて移動させて接触させ、3次元仮想モデル空間の座標系に基づいてロボット側治具50を切り出しシンボル152の所定位置に接触させる際に得る、ロボット側治具50の座標と切り出しシンボル152の座標との第1の差異情報をインターフェース106を介して取得し、第1の差異情報に基づいて、3次元仮想モデル空間の座標系を較正する。
本実施形態によれば、較正の精度のバラつきを抑制可能な荷役装置10の制御装置14、及び、荷役装置10を提供することができる。
As described above, the
According to the present embodiment, it is possible to provide the
[第3実施形態]
図9を用いて第3実施形態に係る荷役装置10について説明する。ここでは、受治具52,54,56,58が第1実施形態で説明した荷物ケース18とは異なり、コンベヤ16のフレーム16aに固定されている。すなわち、受治具52,54,56,58が配設される位置は、荷物ケース18の4つの角部22,24,26,28に限られない。このため、受治具52,54,56,58が配設される位置は、作業対象物だけでなく、実空間の壁やロボット12に対する障害物でもよい。
[Third Embodiment]
The
受治具52,54,56,58の実空間の座標系の座標の情報は、例えばQRコード(登録商標)などのコード140に格納されている。すなわち、プロセッサ102は、QRコード140の情報を受信することで、受治具52,54,56,58の実空間の座標系の座標の情報を得る。この場合、プロセッサ102が、カメラ20で撮像した情報に基づいて、受治具52,54,56,58の実空間の座標系の座標の情報を取得する必要がなくなる。このため、カメラ20による受治具52,54,56,58の認識精度に依存せず、ロボット12の可動アーム34の3次元仮想モデル空間の座標系の座標を、実空間の座標が既知である受治具52,54,56,58に較正することができる。
Information on the coordinates of the real space coordinate system of the receiving
プロセッサ102は、ロボット12に取り付けたロボット側治具50を、受治具52,54,56,58の実空間の座標系の座標の位置に向けてそれぞれ移動させ、座標系の差異検査(ステップS2)を行う。
The
第2実施形態で説明したように、QRコード140の切り出しシンボル152,154,156の少なくとも1つを用いて座標系の差異検査(ステップS2)をさらに実施してもよい。この場合、例えば5箇所以上で座標系の差異検査(ステップS2)を実施することができる。このように、より多くの箇所で座標系の差異検査(ステップS2)を実施し、較正を行う際にその情報を用いることで、較正の信頼性(精度)を向上させる。
As described in the second embodiment, the difference check of the coordinate system (step S2) may be further performed using at least one of the
本実施形態によれば、較正の精度のバラつきを抑制可能な荷役装置10の制御装置14、及び、荷役装置10を提供することができる。
According to the present embodiment, it is possible to provide the
本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.
10…荷役装置、12…ロボット、14…制御装置、16…コンベヤ、18…荷物ケース、20…カメラ、22,24,26,28…角部、32…基台、34…多関節アーム、36…ハンド、42,44…駆動モータ、46…力覚センサ、50…ロボット側治具、52,54,56,58…受治具、62…取付治具、64…凸状の嵌合部、72…取付治具、74…凹状の嵌合部、102…プロセッサ、104…メモリ、106…インターフェース、112…ストレージ、122…入力部、124…表示部、126…タッチパネル。 10 ... Cargo handling device, 12 ... Robot, 14 ... Control device, 16 ... Conveyor, 18 ... Luggage case, 20 ... Camera, 22, 24, 26, 28 ... Corner, 32 ... Base, 34 ... Articulated arm, 36 ... hand, 42, 44 ... drive motor, 46 ... force sensor, 50 ... robot side jig, 52, 54, 56, 58 ... receiving jig, 62 ... mounting jig, 64 ... convex fitting part, 72 ... Mounting jig, 74 ... Concave fitting part, 102 ... Processor, 104 ... Memory, 106 ... Interface, 112 ... Storage, 122 ... Input part, 124 ... Display part, 126 ... Touch panel.
Claims (15)
前記プロセッサにより制御され、前記ロボットと通信するインターフェースと、
を備え、
前記プロセッサは、
前記ロボットを制御し、3次元仮想モデル空間の座標系に基づいて、実空間における前記ロボットにより移動させるロボット側治具を前記実空間の座標系の座標が規定される第1受部に向けて移動させて接触させ、
前記3次元仮想モデル空間の座標系に基づいて前記ロボット側治具を前記第1受部の所定位置に接触させる際に得る、前記ロボット側治具の座標と前記第1受部の座標との第1の差異情報を前記インターフェースを介して取得し、
前記第1の差異情報に基づいて、前記3次元仮想モデル空間の座標系を較正する、荷役装置の制御装置。 A processor that controls the operation of a robot that handles cargo, which is an object,
An interface controlled by the processor and communicating with the robot,
With
The processor
The robot-side jig that controls the robot and moves it by the robot in the real space based on the coordinate system in the three-dimensional virtual model space is directed toward the first receiving portion in which the coordinates of the coordinate system in the real space are defined. Move and touch,
The coordinates of the robot-side jig and the coordinates of the first receiving portion obtained when the robot-side jig is brought into contact with a predetermined position of the first receiving portion based on the coordinate system of the three-dimensional virtual model space. The first difference information is acquired via the interface,
A control device for a cargo handling device that calibrates a coordinate system in the three-dimensional virtual model space based on the first difference information.
前記ロボット側治具が前記第1受部の所定位置に接触したことの接触情報を、前記ロボットを通して取得し、
前記接触情報に基づいて、前記ロボット側治具の移動を停止させ、
前記ロボット側治具の移動を停止させたときの前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標を得る、請求項1又は請求項2に記載の制御装置。 The processor
The contact information that the robot-side jig has come into contact with the predetermined position of the first receiving portion is acquired through the robot, and the contact information is obtained.
Based on the contact information, the movement of the robot side jig is stopped, and the movement is stopped.
The control device according to claim 1 or 2, wherein the coordinates of the robot-side jig in the coordinate system of the three-dimensional virtual model space when the movement of the robot-side jig is stopped are obtained.
前記ロボット側治具を、前記第1受部から離し、前記実空間の座標系の座標が規定される第2受部に向けて移動させて接触させ、
前記ロボット側治具を前記第2受部に接触させたときに得る、前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標に基づいて、前記ロボット側治具の座標と前記第2受部の座標との第2の差異情報を前記インターフェースを介して取得し、
前記第1の差異情報に加え前記第2の差異情報に基づいて、前記3次元仮想モデル空間の座標系を較正する、請求項1乃至請求項3のいずれか1項に記載の制御装置。 After the processor acquires the first difference information,
The robot-side jig is separated from the first receiving portion and moved toward and brought into contact with the second receiving portion in which the coordinates of the coordinate system in the real space are defined.
Based on the coordinates of the robot-side jig in the coordinate system of the three-dimensional virtual model space obtained when the robot-side jig is brought into contact with the second receiving portion, the coordinates of the robot-side jig and the first 2 Acquire the second difference information from the coordinates of the receiving part via the interface, and
The control device according to any one of claims 1 to 3, which calibrates the coordinate system of the three-dimensional virtual model space based on the second difference information in addition to the first difference information.
前記制御装置からの信号により、3次元仮想モデル空間の座標系に基づいてハンドを移動させるロボットと、
前記ロボットにより前記3次元仮想モデル空間の座標系において移動するロボット側治具と、
前記実空間の座標系の座標が規定される第1受部と
を有する、荷役装置。 The control device according to any one of claims 1 to 7.
A robot that moves the hand based on the coordinate system of the three-dimensional virtual model space by the signal from the control device, and
A robot-side jig that is moved by the robot in the coordinate system of the three-dimensional virtual model space,
A cargo handling device having a first receiving portion in which the coordinates of the real space coordinate system are defined.
前記制御装置の前記プロセッサは、前記力覚センサからの情報に基づいて前記第1受部に対する前記ロボット側治具の移動を制御する、請求項8に記載の荷役装置。 The robot has a force sensor that detects contact between the robot-side jig and the first receiving portion.
The cargo handling device according to claim 8, wherein the processor of the control device controls the movement of the robot-side jig with respect to the first receiving unit based on information from the force sensor.
前記インターフェースを介して、前記ロボットの前記力覚センサから取得する情報に基づいて、前記3次元仮想モデル空間の座標系の前記ロボット側治具の座標を算出し、
前記3次元仮想モデル空間の座標系に基づいて前記ロボット側治具を前記第1受部の所定位置に接触させる際、前記力覚センサから取得する情報に基づいて、前記第1の差異情報を前記インターフェースを介して取得し、算出する、請求項9に記載の荷役装置。 The processor
The coordinates of the robot-side jig in the coordinate system of the three-dimensional virtual model space are calculated based on the information acquired from the force sensor of the robot via the interface.
When the robot side jig is brought into contact with a predetermined position of the first receiving portion based on the coordinate system of the three-dimensional virtual model space, the first difference information is obtained based on the information acquired from the force sensor. The cargo handling device according to claim 9, which is acquired and calculated via the interface.
前記4つの角の1つに前記第1受部が配置され、
前記4つの角の残りの3つの角のうち、少なくとも1つに前記第1受部とは異なる第2受部が配置されている、請求項11に記載の荷役装置。 The luggage case has four corners at the top and
The first receiving portion is arranged at one of the four corners.
The cargo handling device according to claim 11, wherein a second receiving portion different from the first receiving portion is arranged in at least one of the remaining three corners of the four corners.
前記第1受部及び前記第2受部を含む前記コードを撮像可能で、前記インターフェースを介して前記プロセッサと通信するイメージセンサーと
を備え、
前記プロセッサは、前記表示部の前記第1受部及び前記第2受部の情報、及び、前記コードの情報を前記イメージセンサーを介して取得する、請求項12に記載の荷役装置。 A display unit that installs or displays a code including the first receiving unit and the second receiving unit, and
An image sensor capable of imaging the code including the first receiving portion and the second receiving portion and communicating with the processor via the interface is provided.
The cargo handling device according to claim 12, wherein the processor acquires the information of the first receiving unit and the second receiving unit of the display unit and the information of the code via the image sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019169119A JP7326082B2 (en) | 2019-09-18 | 2019-09-18 | Control device for cargo handling equipment and cargo handling equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019169119A JP7326082B2 (en) | 2019-09-18 | 2019-09-18 | Control device for cargo handling equipment and cargo handling equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021045813A true JP2021045813A (en) | 2021-03-25 |
JP7326082B2 JP7326082B2 (en) | 2023-08-15 |
Family
ID=74877300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019169119A Active JP7326082B2 (en) | 2019-09-18 | 2019-09-18 | Control device for cargo handling equipment and cargo handling equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7326082B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023243001A1 (en) * | 2022-06-15 | 2023-12-21 | ファナック株式会社 | Robot programming device and robot programming system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04211807A (en) * | 1990-04-20 | 1992-08-03 | Hitachi Ltd | Method and device for estimating installing error of robot and robot drive controlling method, working bench with standard, and standard |
JPH09146624A (en) * | 1995-11-27 | 1997-06-06 | Matsushita Electric Works Ltd | Method and device for automatically teaching assembly robot |
JPH09254063A (en) * | 1996-03-18 | 1997-09-30 | Mitsubishi Electric Corp | Stacking robot system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4211807B2 (en) | 2000-11-07 | 2009-01-21 | ソニー株式会社 | Active matrix display device |
-
2019
- 2019-09-18 JP JP2019169119A patent/JP7326082B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04211807A (en) * | 1990-04-20 | 1992-08-03 | Hitachi Ltd | Method and device for estimating installing error of robot and robot drive controlling method, working bench with standard, and standard |
JPH09146624A (en) * | 1995-11-27 | 1997-06-06 | Matsushita Electric Works Ltd | Method and device for automatically teaching assembly robot |
JPH09254063A (en) * | 1996-03-18 | 1997-09-30 | Mitsubishi Electric Corp | Stacking robot system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023243001A1 (en) * | 2022-06-15 | 2023-12-21 | ファナック株式会社 | Robot programming device and robot programming system |
Also Published As
Publication number | Publication date |
---|---|
JP7326082B2 (en) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111776762B (en) | Robotic system with automated package scanning and registration mechanism and method of operation thereof | |
JP6905462B2 (en) | Wall board pasting method, wall board pasting device, and computer program | |
CN110958425B (en) | Information processing apparatus, information processing method, and system | |
US9156160B2 (en) | Robot system, calibration method, and method for producing to-be-processed material | |
EP3383593B1 (en) | Teaching an industrial robot to pick parts | |
US20140277722A1 (en) | Robot system, calibration method, and method for producing to-be-processed material | |
EP3566824B1 (en) | Method, apparatus, computer-readable storage media and a computer program for robotic programming | |
EP2921267A2 (en) | Robot system, calibration method in robot system, and position correcting method in robot system | |
EP2221152A1 (en) | A robot system and a method for picking and placing components | |
EP3238883B1 (en) | Robot | |
CN113544069B (en) | Robot hand, robot and robot system | |
US10759056B2 (en) | Control unit for articulated robot | |
CN112292235B (en) | Robot control device, robot control method, and recording medium | |
US10537988B2 (en) | Controller, robot and robot system | |
CN110587592B (en) | Robot control device, robot control method, and computer-readable recording medium | |
US10864643B2 (en) | Substrate conveying apparatus | |
JP2021045813A (en) | Control device for cargo handling gear, and cargo handling gear | |
KR20190085979A (en) | Component mounting apparatus and control method thereof | |
WO2016186061A1 (en) | Robot system and robot device | |
JP6824214B2 (en) | Holding mechanism, manipulator, and handling robot system | |
WO2020045277A1 (en) | Robot and origin position adjustment method therefor | |
JP2007237394A (en) | Workpiece positioning device | |
WO2022195944A1 (en) | Robot system, and control method for robot system | |
CN113573996B (en) | Robot hand, robot and robot system | |
JP7341238B2 (en) | automatic assembly system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220810 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230630 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7326082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |