JP7358994B2 - ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム - Google Patents

ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム Download PDF

Info

Publication number
JP7358994B2
JP7358994B2 JP2020001494A JP2020001494A JP7358994B2 JP 7358994 B2 JP7358994 B2 JP 7358994B2 JP 2020001494 A JP2020001494 A JP 2020001494A JP 2020001494 A JP2020001494 A JP 2020001494A JP 7358994 B2 JP7358994 B2 JP 7358994B2
Authority
JP
Japan
Prior art keywords
robot
gripper
robot control
model
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020001494A
Other languages
English (en)
Other versions
JP2021109266A (ja
Inventor
フェリクス・フォン・ドリガルスキ
善久 井尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2020001494A priority Critical patent/JP7358994B2/ja
Priority to US17/788,784 priority patent/US20230046793A1/en
Priority to EP20911518.7A priority patent/EP4088894A4/en
Priority to PCT/JP2020/047801 priority patent/WO2021140902A1/ja
Priority to CN202080091725.XA priority patent/CN114945451A/zh
Publication of JP2021109266A publication Critical patent/JP2021109266A/ja
Application granted granted Critical
Publication of JP7358994B2 publication Critical patent/JP7358994B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40323Modeling robot environment for sensor based robot system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40476Collision, planning for collision free path
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/405866-DOF force sensor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled

Description

本発明は、ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラムに関する。
従来、製品の組み立てや加工にロボットが用いられている。ロボットは、1又は複数のアームを備え、アーム先端にハンド等のエンドエフェクタを有する。
例えば、下記特許文献1にはキサゲ工具を把持又は保持するロボットと、ロボットを制御するロボット制御装置とが記載されている。ロボットは多関節ロボットであり、ロボットアームと、ロボットアームの先端に取り付けたロボットハンドとを有する。キサゲ工具は、ロボットハンドに把持又は保持される。
特開2016-137551号公報
特許文献1のように所定の工具の保持に特化したロボットにより、所定の工具を保持する場合、ツールチェンジャを用いる場合がある。ツールチェンジャを用いることで、複数の工具を使い分けることができる。
しかしながら、複数の工具を比較的頻繁に持ち替える作業を行う場合、ツールチェンジャでは交換のために時間がかかる。一方、グリッパで工具を把持すれば、工具の持ち替え時間を短縮することができるが、例えば、複数の工具の大きさや長さが異なるため、把持する工具が変化すると、工具と周辺環境とが干渉するおそれがある。また、同一の工具であっても、グリッパによる工具の把持位置や姿勢が異なり得るため、工具と周辺環境とが干渉するおそれがある。
そこで、本発明は、ロボットが有するグリッパで対象物を把持する場合であっても、対象物と周辺環境とが干渉するおそれを低減することができるロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラムを提供する。
本開示の一態様に係るロボット制御装置は、ロボットが有するグリッパで対象物を把持した状態におけるロボットのモデルに基づいて、ロボットの干渉範囲を算出する算出部と、モデル及び干渉範囲に基づいて、ロボットの動作を計画する計画部と、を備える。
この態様によれば、グリッパで対象物を把持した状態におけるロボットのモデルに基づいて、ロボットの干渉範囲を算出することで、対象物を把持する場合であっても、対象物と周辺環境とが干渉するおそれを低減することができる。
上記態様において、グリッパで把持する対象物の種類を推定する推定部をさらに備え、算出部は、対象物の種類に基づいて、モデルを更新してもよい。
この態様によれば、把持する度に変わり得る対象物の種類を推定して、より正確なモデルを作成し、ロボットの干渉範囲をより正確に算出することができる。
上記態様において、グリッパで対象物を把持した状態における対象物の姿勢を推定する推定部をさらに備え、算出部は、対象物の姿勢に基づいて、モデルを更新してもよい。
この態様によれば、把持する度に変わり得る対象物の姿勢を推定して、より正確なモデルを作成し、ロボットの干渉範囲をより正確に算出することができる。
上記態様において、ロボットはカメラを有し、推定部は、カメラで撮影した対象物の画像に基づいて、対象物の種類又は対象物の姿勢を推定してもよい。
この態様によれば、把持する度に変わり得る対象物の種類又は対象物の姿勢を画像に基づいて推定して、より正確なモデルを作成し、ロボットの干渉範囲をより正確に算出することができる。
上記態様において、ロボットは、グリッパに設けられた力覚センサを有し、推定部は、力覚センサで検出した信号に基づいて、対象物の種類又は対象物の姿勢を推定してもよい。
この態様によれば、把持する度に変わり得る対象物の種類又は対象物の姿勢を力覚センサで検出した信号に基づいて推定して、より正確なモデルを作成し、ロボットの干渉範囲をより正確に算出することができる。
上記態様において、推定部は、グリッパで対象物を把持した状態で、対象物を環境に干渉させ、干渉の結果に基づいて、対象物の種類又は対象物の姿勢を推定してもよい。
この態様によれば、把持する度に変わり得る対象物の種類又は対象物の姿勢を対象物と環境を干渉させることで推定して、より正確なモデルを作成し、ロボットの干渉範囲をより正確に算出することができる。
上記態様において、対象物は、工具であってもよい。
この態様によれば、グリッパで工具を把持した状態におけるロボットのモデルに基づいて、ロボットの干渉範囲を算出することで、使用する工具が多様であっても、対象物と周辺環境とが干渉するおそれを低減することができる。
本開示の他の態様に係るロボット制御システムは、対象物を把持するグリッパを有するロボットと、ロボットを制御するロボット制御装置と、を備えるロボット制御システムであって、ロボット制御装置は、ロボットが有するグリッパで対象物を把持した状態におけるロボットのモデルに基づいて、ロボットの干渉範囲を算出する算出部と、モデル及び干渉範囲に基づいて、ロボットの動作を計画する計画部と、を有する。
この態様によれば、グリッパで対象物を把持した状態におけるロボットのモデルに基づいて、ロボットの干渉範囲を算出することで、対象物を把持する場合であっても、対象物と周辺環境とが干渉するおそれを低減することができる。
本開示の他の態様に係るロボット制御方法は、ロボット制御装置に備えられたプロセッサによって、ロボットがグリッパで対象物を把持した状態におけるロボットのモデルに基づいて、ロボットの干渉範囲を算出することと、モデル及び干渉範囲に基づいて、ロボットの動作を計画することと、を実行する。
この態様によれば、グリッパで対象物を把持した状態におけるロボットのモデルに基づいて、ロボットの干渉範囲を算出することで、対象物を把持する場合であっても、対象物と周辺環境とが干渉するおそれを低減することができる。
本開示の他の態様に係るロボット制御プログラムは、ロボット制御装置に備えられたプロセッサを、ロボットが有するグリッパで対象物を把持した状態におけるロボットのモデルに基づいて、ロボットの干渉範囲を算出する算出部、及びモデル及び干渉範囲に基づいて、ロボットの動作を計画する計画部、として機能させる。
この態様によれば、グリッパで対象物を把持した状態におけるロボットのモデルに基づいて、ロボットの干渉範囲を算出することで、対象物を把持する場合であっても、対象物と周辺環境とが干渉するおそれを低減することができる。
本発明によれば、ロボットが有するグリッパで対象物を把持する場合であっても、対象物と周辺環境とが干渉するおそれを低減することができるロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラムを提供することができる。
本発明の実施形態に係るロボット制御システムの機能ブロックを示す図である。 本実施形態に係るロボット制御装置の物理的構成を示す図である。 本実施形態に係るロボット制御装置により実行されるロボット制御処理の第1例のフローチャートである。 本実施形態に係るロボット制御装置により実行されるロボット制御処理の第2例のフローチャートである。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
§1 適用例
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、本発明の実施形態に係るロボット制御システム100の機能ブロックを示す図である。ロボット制御システム100は、対象物を把持するグリッパ21を有するロボット20と、ロボット20を制御するロボット制御装置10と、を備える。本明細書において、対象物は、工具、部品及びそれらの組合せを含み、工具の先端に部品が保持された状態の工具及び部品を含む。
ロボット20は、グリッパ21によって、工具等の対象物を把持し、ロボット制御装置10は、グリッパ21で対象物を把持した状態におけるロボット20のモデルに基づいて、ロボット20の干渉範囲を算出する。ここで、グリッパ21で対象物を把持した状態におけるロボット20のモデルは、例えば、3次元CAD(Computer-Aided Design)モデルであってよい。ロボット制御装置10は、ロボット20のモデル及び算出した干渉範囲に基づいて、ロボット20の動作を計画する。ロボット20の動作は、例えば、把持している工具を用いた動作であってよい。
本実施形態に係るロボット制御装置10によれば、グリッパ21で対象物を把持した状態におけるロボット20のモデルに基づいて、ロボット20の干渉範囲を算出することで、対象物を把持する場合であっても、対象物と周辺環境とが干渉するおそれを低減することができる。
§2 構成例
[機能構成]
ロボット制御装置10は、算出部11、計画部12、推定部13、CADメモリ14、ツール指定部15を備える。
<算出部>
算出部11は、ロボット20が有するグリッパ21で対象物を把持した状態におけるロボット20のモデルに基づいて、ロボット20の干渉範囲を算出する。ロボット20のモデルは、3次元CADモデルであってよく、仮想空間上でロボット20の動作をシミュレーションするためのモデルであってよい。グリッパ21により対象物を把持する場合、ロボット20及び対象物を含むモデルが定義されてよい。算出部11は、順運動学を用いて、ロボット20を構成する複数の関節の角度から、グリッパ21で把持した対象物の先端位置を算出してよい。また、算出部11は、逆運動学を用いて、グリッパ21で把持した対象物の先端位置から、ロボット20を構成する複数の関節の角度を算出してもよい。
<計画部>
計画部12は、ロボット20のモデル及び干渉範囲に基づいて、ロボット20の動作を計画する。計画部12は、ロボット20を構成するアームや、グリッパ21で把持した対象物が環境と干渉しないように、ロボット20の動作を計画する。ここで、環境は、ロボット20の周囲に配置された構造物やロボット20自身を含む。
対象物が工具である場合、ロボット20の動作は、グリッパ21で把持した工具を用いる動作であってよい。工具は、例えば、ドライバ、はんだごて、ピンセット等を含み、工具を用いる動作は、ネジ締め動作、はんだ付け動作、ピンセットにより部品をつまむ動作を含む。このように、グリッパ21で工具を把持した状態におけるロボット20のモデルに基づいて、ロボット20の干渉範囲を算出することで、使用する工具が多様であっても、対象物と周辺環境とが干渉するおそれを低減することができる。
<推定部>
推定部13は、グリッパ21で把持した対象物の種類を推定する。例えば対象物が工具である場合、対象物の種類は、ドライバ、はんだごて、ピンセット等の工具の種類である。算出部12は、対象物の種類に基づいて、モデルを更新してよい。このようにして、把持する度に変わり得る対象物の種類を推定して、より正確なモデルを作成し、ロボット20の干渉範囲をより正確に算出することができる。
推定部13は、グリッパ21で対象物を把持した状態における対象物の姿勢を推定する。ここで、対象物の姿勢は、狭義の位置(x,y,z)及び狭義の姿勢(φ,θ,ψ)を含む。また、対象物の姿勢は、グリッパ21に対して相対的に定義されていてもよい。算出部12は、対象物の姿勢に基づいて、モデルを更新してよい。このようにして、把持する度に変わり得る対象物の姿勢を推定して、より正確なモデルを作成し、ロボット20の干渉範囲をより正確に算出することができる。
ロボット20はカメラ22を有してよい。カメラ22は、グリッパ21を撮影するように設けられていてよい。推定部13は、カメラ22で撮影した対象物の画像に基づいて、対象物の種類又は対象物の姿勢を推定してよい。推定部13は、カメラ22で撮影した対象物の画像を公知の解析手法で画像解析し、対象物の種類又は姿勢を推定してよい。このようにして、把持する度に変わり得る対象物の種類又は対象物の姿勢を画像に基づいて推定して、より正確なモデルを作成し、ロボット20の干渉範囲をより正確に算出することができる。なお、カメラ22は、3次元の点群又は奥行画像を取得する奥行センサを含んでよい。その場合、把持する度に変わり得る対象物の姿勢を3次元の点群又は奥行画像に基づいて推定して、より正確なモデルを作成し、ロボット20の干渉範囲をより正確に算出することができる。
ロボットは、グリッパ21に設けられた力覚センサを有してよい。力覚センサは、力とトルクを測定するセンサであってよく、例えば、6軸の力覚センサであってよい。推定部13は、力覚センサで検出した信号に基づいて、対象物の種類又は対象物の姿勢を推定してよい。このようにして、把持する度に変わり得る対象物の種類又は対象物の姿勢を力覚センサで検出した信号に基づいて推定して、より正確なモデルを作成し、ロボット20の干渉範囲をより正確に算出することができる。
推定部13は、グリッパ21で対象物を把持した状態で、対象物を環境に干渉させ、干渉の結果に基づいて、対象物の種類又は対象物の姿勢を推定してもよい。推定部13は、例えば、グリッパ21で対象物を把持した状態で、対象物を作業台に沿わせるように移動させて、その干渉の結果に基づいて、対象物の種類又は対象物の姿勢を推定してよい。このようにして、把持する度に変わり得る対象物の種類又は対象物の姿勢を対象物と環境を干渉させることで推定して、より正確なモデルを作成し、ロボット20の干渉範囲をより正確に算出することができる。
<CADメモリ>
CADメモリ14は、ロボット20の3次元CADモデルと、ツール群30の3次元CADモデルと、ロボット20の周辺に設けられた構造物の3次元CADモデルとを記憶する。
<ツール指定部>
ツール指定部15は、ツール群30のうち、ロボット20の動作に用いるツールを指定する。ツール指定部15は、ロボット20の動作を指定して、その動作に必要となるツールを選択してもよい。
[ハードウェア構成]
図2は、本実施形態に係るロボット制御装置10の物理的構成を示す図である。ロボット制御装置10は、演算部に相当するCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、表示部10fと、を有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例ではロボット制御装置10が一台のコンピュータで構成される場合について説明するが、ロボット制御装置10は、複数のコンピュータが組み合わされて実現されてもよい。また、図2で示す構成は一例であり、ロボット制御装置10はこれら以外の構成を有してもよいし、これらの構成のうち一部を有さなくてもよい。
CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、ロボット20を制御するプログラム(ロボット制御プログラム)を実行する演算部である。CPU10aは、入力部10eや通信部10dから種々のデータを受け取り、データの演算結果を表示部10fに表示したり、RAM10bに格納したりする。
RAM10bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、CPU10aが実行するプログラム、ロボット20やツール群30の3次元CADモデルといったデータを記憶してよい。なお、これらは例示であって、RAM10bには、これら以外のデータが記憶されていてもよいし、これらの一部が記憶されていなくてもよい。
ROM10cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えばロボット制御プログラムや、書き換えが行われないデータを記憶してよい。
通信部10dは、ロボット制御装置10を他の機器に接続するインターフェースである。通信部10dは、インターネット等の通信ネットワークに接続されてよい。
入力部10eは、ユーザからデータの入力を受け付けるものであり、例えば、キーボード及びタッチパネルを含んでよい。
表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)により構成されてよい。表示部10fは、ロボット20及びツール群30の3次元CADモデルを表示したり、計画されたロボット20の動作を表示したりしてよい。
ロボット制御プログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークを介して提供されてもよい。ロボット制御装置10では、CPU10aがロボット制御プログラムを実行することにより、図1を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、ロボット制御装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。
§3 動作例
図3は、本実施形態に係るロボット制御装置10により実行されるロボット制御処理の第1例のフローチャートである。はじめに、ロボット制御装置10は、対象物を選択する(S10)。ロボット制御装置10は、ロボット20に行わせる動作の指定を受け付けて、その動作に必要となる工具を選択してよい。
次に、ロボット制御装置10は、ロボット20が有するグリッパ21で対象物を把持する(S11)。そして、カメラ22で撮影した対象物の画像又はグリッパ21に設けられた力覚センサで検出した信号に基づいて、対象物の種類又は対象物の姿勢を推定する(S12)。
その後、ロボット制御装置10は、対象物の種類又は対象物の姿勢に基づいて、ロボット20がグリッパ21で対象物を把持した状態におけるロボット20のモデルを更新する(S13)。また、ロボット制御装置10は、モデルに基づいて、ロボット20の干渉範囲を算出する(S14)。
最後に、ロボット制御装置10は、モデル及び干渉範囲に基づいて、ロボット20の動作を計画し(S15)、その計画に従って、ロボット20により動作を実行する(S16)。
図4は、本実施形態に係るロボット制御装置10により実行されるロボット制御処理の第2例のフローチャートである。はじめに、ロボット制御装置10は、対象物を選択する(S20)。ロボット制御装置10は、ロボット20に行わせる動作の指定を受け付けて、その動作に必要となる工具を選択してよい。
次に、ロボット制御装置10は、ロボット20が有するグリッパ21で対象物を把持する(S21)。そして、対象物を環境に干渉させ、干渉の結果に基づいて、対象物の種類又は対象物の姿勢を推定する(S22)。
その後、ロボット制御装置10は、対象物の種類又は対象物の姿勢に基づいて、ロボット20がグリッパ21で対象物を把持した状態におけるロボット20のモデルを更新する(S23)。また、ロボット制御装置10は、モデルに基づいて、ロボット20の干渉範囲を算出する(S24)。
最後に、ロボット制御装置10は、モデル及び干渉範囲に基づいて、ロボット20の動作を計画し(S25)、その計画に従って、ロボット20により動作を実行する(S26)。
本発明の実施形態は、以下の付記のようにも記載され得る。ただし、本発明の実施形態
は、以下の付記に記載した形態に限定されない。また、本発明の実施形態は、付記間の記
載を置換したり、組み合わせたりした形態であってもよい。
[付記1]
ロボット(20)が有するグリッパ(21)で対象物を把持した状態における前記ロボット(20)のモデルに基づいて、前記ロボット(20)の干渉範囲を算出する算出部(11)と、
前記モデル及び前記干渉範囲に基づいて、前記ロボット(20)の動作を計画する計画部(12)と、
を備えるロボット制御装置(10)。
[付記2]
前記グリッパ(21)で把持する前記対象物の種類を推定する推定部(13)をさらに備え、
前記算出部(11)は、前記対象物の種類に基づいて、前記モデルを更新する、
請求項1に記載のロボット制御装置(10)。
[付記3]
前記グリッパ(21)で前記対象物を把持した状態における前記対象物の姿勢を推定する推定部(13)をさらに備え、
前記算出部(11)は、前記対象物の姿勢に基づいて、前記モデルを更新する、
付記1又は2に記載のロボット制御装置(10)。
[付記4]
前記ロボット(20)はカメラ(22)を有し、
前記推定部(13)は、前記カメラ(22)で撮影した前記対象物の画像に基づいて、前記対象物の種類又は前記対象物の姿勢を推定する、
付記2又は3に記載のロボット制御装置(10)。
[付記5]
前記ロボット(20)は、前記グリッパ(21)に設けられた力覚センサを有し、
前記推定部(13)は、前記力覚センサで検出した信号に基づいて、前記対象物の種類又は前記対象物の姿勢を推定する、
付記2から4のいずれか一項に記載のロボット制御装置(10)。
[付記6]
前記推定部(13)は、前記グリッパ(21)で前記対象物を把持した状態で、前記対象物を環境に干渉させ、前記干渉の結果に基づいて、前記対象物の種類又は前記対象物の姿勢を推定する、
付記2から5のいずれか一項に記載のロボット制御装置(10)。
[付記7]
前記対象物は、工具である、
付記1から6のいずれか一項に記載のロボット制御装置(10)。
[付記8]
対象物を把持するグリッパ(21)を有するロボット(20)と、
前記ロボット(20)を制御するロボット制御装置(10)と、を備えるロボット制御システム(100)であって、
前記ロボット(20)制御装置は、
ロボット(20)が有するグリッパ(21)で対象物を把持した状態における前記ロボット(20)のモデルに基づいて、前記ロボット(20)の干渉範囲を算出する算出部(11)と、
前記モデル及び前記干渉範囲に基づいて、前記ロボット(20)の動作を計画する計画部(12)と、を有する、
ロボット制御システム(100)。
[付記9]
ロボット制御装置(10)に備えられたプロセッサによって、
ロボット(20)がグリッパ(21)で対象物を把持した状態における前記ロボット(20)のモデルに基づいて、前記ロボット(20)の干渉範囲を算出することと、
前記モデル及び前記干渉範囲に基づいて、前記ロボット(20)の動作を計画することと、
を実行するロボット制御方法。
[付記10]
ロボット制御装置(10)に備えられたプロセッサを、
ロボット(20)が有するグリッパ(21)で対象物を把持した状態における前記ロボット(20)のモデルに基づいて、前記ロボット(20)の干渉範囲を算出する算出部(11)、及び
前記モデル及び前記干渉範囲に基づいて、前記ロボット(20)の動作を計画する計画部(12)、
として機能させるロボット制御プログラム。
10…ロボット制御装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…表示部、11…算出部、12…計画部、13…推定部、14…CADメモリ、15…ツール指定部、20…ロボット、21…グリッパ、22…カメラ、30…ツール群、100…ロボット制御システム

Claims (8)

  1. ロボットが有するグリッパで対象物を把持した状態における前記ロボットのモデルに基づいて、前記ロボットの干渉範囲を算出する算出部と、
    前記モデル及び前記干渉範囲に基づいて、前記ロボットの動作を計画する計画部と、
    前記グリッパで把持する前記対象物の種類を推定する推定部と
    を備え
    前記算出部は、前記対象物の種類に基づいて、前記モデルを更新し、
    前記推定部は、前記グリッパで前記対象物を把持した状態で、前記対象物を環境に干渉させ、前記干渉の結果に基づいて、前記対象物の種類又は前記対象物の姿勢を推定する、ロボット制御装置。
  2. 前記推定部は、前記グリッパで前記対象物を把持した状態における前記対象物の姿勢を推定
    前記算出部は、前記対象物の姿勢に基づいて、前記モデルを更新する、
    請求項1記載のロボット制御装置。
  3. 前記ロボットはカメラを有し、
    前記推定部は、前記カメラで撮影した前記対象物の画像に基づいて、前記対象物の種類又は前記対象物の姿勢を推定する、
    請求項又はに記載のロボット制御装置。
  4. 前記ロボットは、前記グリッパに設けられた力覚センサを有し、
    前記推定部は、前記力覚センサで検出した信号に基づいて、前記対象物の種類又は前記対象物の姿勢を推定する、
    請求項からのいずれか一項に記載のロボット制御装置。
  5. 前記対象物は、工具である、
    請求項1からのいずれか一項に記載のロボット制御装置。
  6. 対象物を把持するグリッパを有するロボットと、
    前記ロボットを制御するロボット制御装置と、を備えるロボット制御システムであって、
    前記ロボット制御装置は、
    ロボットが有するグリッパで対象物を把持した状態における前記ロボットのモデルに基づいて、前記ロボットの干渉範囲を算出する算出部と、
    前記モデル及び前記干渉範囲に基づいて、前記ロボットの動作を計画する計画部と、
    前記グリッパで把持する前記対象物の種類を推定する推定部と
    を有し、
    前記算出部は、前記対象物の種類に基づいて、前記モデルを更新し、
    前記推定部は、前記グリッパで前記対象物を把持した状態で、前記対象物を環境に干渉させ、前記干渉の結果に基づいて、前記対象物の種類又は前記対象物の姿勢を推定する、ロボット制御システム。
  7. ロボット制御装置に備えられたプロセッサによって、
    ロボットがグリッパで対象物を把持した状態における前記ロボットのモデルに基づいて、前記ロボットの干渉範囲を算出することと、
    前記モデル及び前記干渉範囲に基づいて、前記ロボットの動作を計画することと、
    前記グリッパで把持する前記対象物の種類を推定することと
    を実行し、
    前記算出することは、前記対象物の種類に基づいて、前記モデルを更新することを含み、
    前記推定することは、前記グリッパで前記対象物を把持した状態で、前記対象物を環境に干渉させ、前記干渉の結果に基づいて、前記対象物の種類又は前記対象物の姿勢を推定することを含む、ロボット制御方法。
  8. ロボット制御装置に備えられたプロセッサを、
    ロボットが有するグリッパで対象物を把持した状態における前記ロボットのモデルに基づいて、前記ロボットの干渉範囲を算出する算出部、
    記モデル及び前記干渉範囲に基づいて、前記ロボットの動作を計画する計画部、及び
    前記グリッパで把持する前記対象物の種類を推定する推定部、として機能させ
    前記算出部は、前記対象物の種類に基づいて、前記モデルを更新し、
    前記推定部は、前記グリッパで前記対象物を把持した状態で、前記対象物を環境に干渉させ、前記干渉の結果に基づいて、前記対象物の種類又は前記対象物の姿勢を推定する、ロボット制御プログラム。
JP2020001494A 2020-01-08 2020-01-08 ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム Active JP7358994B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020001494A JP7358994B2 (ja) 2020-01-08 2020-01-08 ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム
US17/788,784 US20230046793A1 (en) 2020-01-08 2020-12-22 Robot control apparatus, robot control system, robot control method, and computer-readable storage medium storing a robot control program
EP20911518.7A EP4088894A4 (en) 2020-01-08 2020-12-22 ROBOT CONTROL DEVICE, ROBOT CONTROL SYSTEM, ROBOT CONTROL METHOD AND ROBOT CONTROL PROGRAM
PCT/JP2020/047801 WO2021140902A1 (ja) 2020-01-08 2020-12-22 ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム
CN202080091725.XA CN114945451A (zh) 2020-01-08 2020-12-22 机器人控制装置、机器人控制系统、机器人控制方法和机器人控制程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020001494A JP7358994B2 (ja) 2020-01-08 2020-01-08 ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム

Publications (2)

Publication Number Publication Date
JP2021109266A JP2021109266A (ja) 2021-08-02
JP7358994B2 true JP7358994B2 (ja) 2023-10-11

Family

ID=76788609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020001494A Active JP7358994B2 (ja) 2020-01-08 2020-01-08 ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム

Country Status (5)

Country Link
US (1) US20230046793A1 (ja)
EP (1) EP4088894A4 (ja)
JP (1) JP7358994B2 (ja)
CN (1) CN114945451A (ja)
WO (1) WO2021140902A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011131300A (ja) 2009-12-22 2011-07-07 Canon Inc ロボットシステム、その制御装置及び方法
JP2012011531A (ja) 2010-07-05 2012-01-19 Yaskawa Electric Corp ロボット装置およびロボット装置による把持方法
WO2016151862A1 (ja) 2015-03-26 2016-09-29 株式会社日立製作所 組立教示装置、および組立教示方法
JP2017087325A (ja) 2015-11-06 2017-05-25 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3782679B2 (ja) * 2001-05-09 2006-06-07 ファナック株式会社 干渉回避装置
WO2012153629A1 (ja) * 2011-05-12 2012-11-15 株式会社Ihi 運動予測制御装置と方法
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
JP6379687B2 (ja) * 2014-06-02 2018-08-29 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6294248B2 (ja) 2015-01-28 2018-03-14 ファナック株式会社 ロボットを用いたキサゲ加工装置及びキサゲ加工方法
US9981382B1 (en) * 2016-06-03 2018-05-29 X Development Llc Support stand to reorient the grasp of an object by a robot
WO2018013899A1 (en) * 2016-07-14 2018-01-18 Zetec, Inc. Tube sheet inspection robot
JP6763914B2 (ja) * 2018-06-08 2020-09-30 ファナック株式会社 ロボットシステムおよびロボットシステムの制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011131300A (ja) 2009-12-22 2011-07-07 Canon Inc ロボットシステム、その制御装置及び方法
JP2012011531A (ja) 2010-07-05 2012-01-19 Yaskawa Electric Corp ロボット装置およびロボット装置による把持方法
WO2016151862A1 (ja) 2015-03-26 2016-09-29 株式会社日立製作所 組立教示装置、および組立教示方法
JP2017087325A (ja) 2015-11-06 2017-05-25 キヤノン株式会社 ロボット制御装置、ロボット制御方法、ロボット制御システムおよびコンピュータプログラム

Also Published As

Publication number Publication date
EP4088894A1 (en) 2022-11-16
WO2021140902A1 (ja) 2021-07-15
EP4088894A4 (en) 2023-08-23
JP2021109266A (ja) 2021-08-02
CN114945451A (zh) 2022-08-26
US20230046793A1 (en) 2023-02-16

Similar Documents

Publication Publication Date Title
EP3538328B1 (en) System and method for instructing a robot
JP5426719B2 (ja) ロボットシステムの動作シミュレーション装置
JP5180414B2 (ja) ロボットアームの制御装置及び制御方法、ロボット、ロボットアーム制御プログラム、並びに、集積電子回路
JP3708097B2 (ja) ロボットの手動送り装置
Vahrenkamp et al. Representing the robot’s workspace through constrained manipulability analysis
JP2019014030A (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
CN112123341B (zh) 机器人双臂协调运动控制方法、装置和电子设备
Willaert et al. Towards multi-DOF model mediated teleoperation: Using vision to augment feedback
JP2017030059A (ja) ロボット制御装置、ロボットおよびロボットシステム
JP2020006445A (ja) 動作教示装置、ロボットシステム及び動作教示方法
JP6003312B2 (ja) ロボットシステム
JP7358994B2 (ja) ロボット制御装置、ロボット制御システム、ロボット制御方法及びロボット制御プログラム
Jha et al. Kinematics-based approach for robot programming via human arm motion
Géza Position Singularities and Ambiguities of the KUKA KR5 Robot
JP6654926B2 (ja) 処理時間の予測方法
JP7144754B2 (ja) 多関節ロボットおよび多関節ロボットシステム
WO2021250923A1 (ja) ロボットシステム、制御装置、及び制御方法
JP2009056593A (ja) 把持制御装置
JP4745921B2 (ja) 溶接ロボットの制御方法
JP6895086B2 (ja) ロボットの制御装置、制御方法及びプログラム
KR20220099535A (ko) 손목 오프셋 로봇들을 위한 역운동학 솔버
CN111844017A (zh) 显示方法
JP2005335010A (ja) 把持制御装置
Kim et al. Towards Immersive Bilateral Teleoperation Using Encountered-Type Haptic Interface
Xue et al. Dynamic finger gaits via pivoting and adapting contact forces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R150 Certificate of patent or registration of utility model

Ref document number: 7358994

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150