JP7326911B2 - 制御システムおよび制御方法 - Google Patents
制御システムおよび制御方法 Download PDFInfo
- Publication number
- JP7326911B2 JP7326911B2 JP2019114597A JP2019114597A JP7326911B2 JP 7326911 B2 JP7326911 B2 JP 7326911B2 JP 2019114597 A JP2019114597 A JP 2019114597A JP 2019114597 A JP2019114597 A JP 2019114597A JP 7326911 B2 JP7326911 B2 JP 7326911B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- orientation
- simulation
- image
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39014—Match virtual world with real world
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39022—Transform between measuring and manipulator coordinate system
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39031—Use of model for robot and for measuring device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39041—Calibrate only for end position
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40323—Modeling robot environment for sensor based robot system
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Description
まず、図1および図2を参照して、本発明が適用される場面の一例について説明する。図1は、本実施の形態に係る制御システムの全体構成例を模式的に示す図である。
条件A:ロボットモデルに対する仮想カメラの相対位置姿勢が上記の(2)で推定された相対位置姿勢と一致する。
次に、本実施の形態に係る制御システムSYSの具体例について説明する。
図3は、本実施の形態に係る制御装置のハードウェア構成例を示すブロック図である。図3に示されるように、本実施の形態に係る制御装置100は、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)などのプロセッサ102と、チップセット104と、主メモリ106と、ストレージ108と、上位ネットワークコントローラ110と、USB(Universal Serial Bus)コントローラ112と、メモリカードインターフェイス114と、フィールドネットワークコントローラ120とを含む。
図4は、本実施の形態に従うシミュレーション装置のハードウェア構成例を示す模式図である。シミュレーション装置400は、一例として、汎用的なアーキテクチャに従うハードウェア(例えば、汎用パソコン)を用いて実現される。
図5は、本実施の形態に係るシミュレーション装置の機能構成例を示すブロック図である。図5に示されるように、シミュレーション装置400は、設定部42と画像生成部44とを含む。設定部42および画像生成部44は、プロセッサ402がシミュレーションプログラム432を実行することにより実現される。
図8は、本実施の形態に係る制御装置の機能構成例を示すブロック図である。図8に示されるように、制御装置100は、推定部11と、第1取得部12と、決定部13とを含む。推定部11は、図3に示すプロセッサ102が推定プログラム132を実行することにより実現される。第1取得部12および決定部13は、図3に示すプロセッサ102が補正プログラム134を実行することにより実現される。
推定部11は、撮像装置500の撮像によって得られた画像に基づいて、ロボット200に対する撮像装置500の相対位置姿勢を推定する。推定部11は、公知の技術を用いて相対位置姿勢を推定すればよい。
第1取得部12は、教示データで示される各教示点について、当該教示点への第1移動指令を生成し、第1移動指令をロボットコントローラ300に与える。推定部11は、第1移動指令に応じてロボット200が駆動制御された後に、カメラコントローラ600に撮像指令を出力する。これにより、推定部11は、第1移動指令に応じてロボット200が駆動制御された後の撮像により得られた第1実画像70を取得する。
決定部13は、第1実画像70上のロボット200の位置姿勢が第1シミュレーション画像80上のロボットモデル90の位置姿勢に近づくように、教示点に対する補正量を決定する。
偏差演算部14は、実画像上のロボット200の位置姿勢と、第1シミュレーション画像80のロボットモデル90の位置姿勢との偏差を演算する。
第2取得部15は、第1偏差が予め定められた閾値以上であることに応じて、以下に示す取得処理を実行する。すなわち、第2取得部15は、実画像上のロボット200の位置姿勢と第1シミュレーション画像80上のロボットモデル90の位置姿勢との偏差が小さくなる方向への第2移動指令を生成し、第2移動指令をロボットコントローラ300に与える。第2取得部15は、第2移動指令に応じてロボット200が駆動制御された後に、カメラコントローラ600に撮像指令を出力する。そして、第2取得部15は、第2移動指令に応じてロボット200が駆動制御された後の撮像によって得られた第2実画像72を取得する。
補正量演算部16は、第1移動指令に従って駆動制御されたロボット200の位置姿勢から、第2偏差が閾値未満となるときのロボット200の位置姿勢までの移動量(以下、「必要移動量」と称する。)を、教示点に対する補正量として演算する。補正量演算部16は、第2取得部15によってロボットコントローラ300へ与えられた第2移動指令の積算量を必要移動量として演算すればよい。
図11および図12を参照して、制御システムSYSにおける補正量の決定処理の流れを説明する。図11は、補正量の決定処理における前半部分の流れを示すフローチャートである。図12は、補正量の決定処理における後半部分の流れを示すフローチャートである。
<F-1.変形例1>
上記の説明では、実画像上のロボット200の位置姿勢を第1シミュレーション画像80上のロボットモデル90の位置姿勢に合わせるようにロボット200を移動させ、その移動量が教示点に対する補正量として決定される。この方法によれば、ロボット200の実動作をシミュレーション動作に精度良く合わせることができる。しかしながら、ロボット200を移動させるため、補正量を決定するのに時間がかかる。
上記の説明では、制御装置100は、二次元の実画像とシミュレーション画像との比較に応じて、教示点に対する補正量を決定するものとした。しかしながら、制御装置100は、三次元の実画像とシミュレーション画像との比較に応じて、教示点に対する補正量を決定してもよい。
上記の説明では、推定部11は、制御装置100に備えられるものとした。しかしながら、推定部11は、カメラコントローラ600に備えられていてもよい。
以上のように、本実施の形態に係る制御システムSYSは、シミュレーション装置400と、ロボットコントローラ300と、撮像装置500とを備える。シミュレーション装置400は、ロボット200の形状を示すロボットモデル90を用いたシミュレーションを行なう。ロボットコントローラ300は、与えられた移動指令に従ってロボット200を駆動制御する。撮像装置500は、ロボット200を撮像する。制御システムSYSは、撮像装置500の撮像により得られた画像に基づいて、ロボット200に対する撮像装置500の相対位置姿勢を推定するための推定部11(プロセッサ102)をさらに備える。シミュレーション装置400は、設定部42と画像生成部44とを含む。設定部42は、オフラインティーチングを実行することにより、ロボット200が取るべき位置姿勢を示す教示点を設定する。画像生成部44は、仮想空間に配置された仮想カメラ94の撮像によって得られるシミュレーション画像を生成する。画像生成部44は、仮想空間において、教示点にロボットモデル90を配置するとともに、ロボットモデル90に対する相対位置姿勢が推定部11によって推定された相対位置姿勢と一致するように仮想カメラ94を配置したときの第1シミュレーション画像80を生成する。制御システムSYSは、さらに、第1取得部12と、決定部13とを備える。第1取得部12は、教示点への第1移動指令をロボットコントローラ300に与え、かつ、第1移動指令に従ってロボット200が駆動制御された後の撮像装置500の撮像により得られる第1実画像70を取得する。決定部13は、第1実画像70上のロボット200の位置姿勢が第1シミュレーション画像80上のロボットモデル90の位置姿勢に近づくように、教示点に対する補正量を決定する。
以上のように、本実施の形態および変形例は以下のような開示を含む。
ロボット(200)を制御する制御システム(SYS))であって、
前記ロボット(200)の形状を示すロボットモデル(90)を用いたシミュレーションを行なうためのシミュレーション装置(400)と、
与えられた移動指令に従って前記ロボットを駆動制御するためのロボットコントローラ(300)と、
前記ロボット(200)を撮像するための撮像装置(500)と、
前記撮像装置(500)の撮像により得られた画像に基づいて、前記ロボット(200)に対する前記撮像装置(500)の相対位置姿勢を推定するための推定手段(11,102)とを備え、
前記シミュレーション装置(400)は、
オフラインティーチングを実行することにより、前記ロボット(200)が取るべき位置姿勢を示す教示点を設定するための設定手段(42,402)と、
仮想空間に配置された仮想カメラ(94)の撮像によって得られるシミュレーション画像を生成するための画像生成手段(44,402)とを含み、
前記画像生成手段(44,402)は、前記仮想空間において、前記教示点に前記ロボットモデル(90)を配置するとともに、前記ロボットモデル(90)に対する相対位置姿勢が前記推定手段(11,102)によって推定された相対位置姿勢と一致するように前記仮想カメラ(94)を配置したときの第1シミュレーション画像(80)を生成し、
前記制御システム(SYS)は、さらに、
前記教示点への第1移動指令を前記ロボットコントローラ(300)に与え、かつ、前記第1移動指令に従って前記ロボット(200)が駆動制御された後の前記撮像装置(500)の撮像により得られる第1実画像(70)を取得するための第1取得手段(12,102)と、
前記第1実画像(70)上の前記ロボット(200)の位置姿勢が前記第1シミュレーション画像(80)上の前記ロボットモデル(90)の位置姿勢に近づくように、前記教示点に対する補正量を決定するための決定手段(13,102)とを備える、制御システム(SYS)。
前記決定手段(13,102)は、
前記撮像装置(500)の撮像によって得られる実画像上の前記ロボット(200)の位置姿勢と前記第1シミュレーション画像(80)上の前記ロボットモデル(90)の位置姿勢との偏差を演算するための偏差演算手段(14,102)と、
前記第1移動指令に従って駆動制御された前記ロボット(200)の位置姿勢から、前記偏差が予め定められた閾値未満となるときの前記ロボット(200)の位置姿勢までの移動量を前記補正量として演算するための補正量演算手段(16,102)とを含む、構成1に記載の制御システム(SYS)。
前記決定手段(13,102)は、
前記偏差が小さくなる方向への第2移動指令を前記ロボットコントローラ(300)に与え、かつ、前記第2移動指令に従って前記ロボット(200)が駆動制御された後の前記撮像装置(500)の撮像によって得られる第2実画像を取得する取得処理を実行するための第2取得手段(15,102)をさらに含み、
前記第2取得手段(15,102)は、前記第1移動指令に従って前記ロボット(200)が駆動制御されてから、前記偏差が前記閾値未満になるまで前記取得処理を繰り返して実行し、
前記補正量演算手段(16,102)は、前記ロボットコントローラ(300)に与えられた前記第2移動指令の積算量を前記補正量として演算する、構成2に記載の制御システム(SYS)。
前記決定手段(13,102)は、
前記第1実画像)70)上の前記ロボット(200)の位置姿勢と前記シミュレーション画像上の前記ロボットモデル(90)の位置姿勢との偏差を演算するための偏差演算手段(14,102)と、
前記偏差が予め定められた閾値未満となるときの前記ロボットモデル(90)の位置姿勢から、前記教示点に配置された前記ロボットモデル(90)の位置姿勢までの移動量を前記補正量として演算するための補正量演算手段(16,102)とを含む、構成1に記載の制御システム(SYS)。
前記撮像装置(500)と前記ロボットコントローラ(300)と前記シミュレーション装置(400)とに接続され、前記ロボットコントローラ(300)および前記撮像装置(500)を制御する制御装置(100)を備え、
前記推定手段(11,102)、前記第1取得手段(12,102)および前記決定手段(13,102)は、前記制御装置(100)に含まれる、構成1から3のいずれかに記載の制御システム(SYS)。
ロボット(200)を制御する制御システム(SYS)における制御方法であって、
前記制御システム(SYS)は、
与えられた移動指令に従って前記ロボット(200)を駆動制御するためのロボットコントローラ(300)と、
前記ロボット(200)を撮像するための撮像装置(500)とを備え、
前記制御方法は、
ロボットモデル(90)を用いたオフラインティーチングを実行することにより、前記ロボット(200)が取るべき位置姿勢を示す教示点を設定するステップと、
前記撮像装置の撮像により得られた画像に基づいて、前記ロボット(200)に対する前記撮像装置(500)の相対位置姿勢を推定するステップと、
仮想空間において、前記教示点に前記ロボットモデル(90)を配置するとともに、前記ロボットモデル(90)に対する相対位置姿勢が前記推定するステップによって推定された相対位置姿勢と一致するように仮想カメラ(94)を配置したときの前記仮想カメラ(94)の撮像によって得られるシミュレーション画像(80)を生成するステップと、
前記教示点への移動指令を前記ロボットコントローラ(300)に与え、かつ、前記教示点への移動指令に従って前記ロボット(200)が駆動制御された後の前記撮像装置(500)の撮像により得られる実画像(70)を取得するステップと、
前記実画像(70)上の前記ロボット(200)の位置姿勢が前記シミュレーション画像(80)上の前記ロボットモデル(90)の位置姿勢に近づくように、前記教示点に対する補正量を決定するステップとを備える、制御方法。
Claims (6)
- ロボットを制御する制御システムであって、
前記ロボットの形状を示すロボットモデルを用いたシミュレーションを行なうためのシミュレーション装置と、
与えられた移動指令に従って前記ロボットを駆動制御するためのロボットコントローラと、
前記ロボットを撮像するための撮像装置と、
前記撮像装置の撮像により得られた画像に基づいて、前記ロボットに対する前記撮像装置の相対位置姿勢を推定するための推定手段とを備え、
前記シミュレーション装置は、
オフラインティーチングを実行することにより、前記ロボットが取るべき位置姿勢を示す教示点を設定するための設定手段と、
仮想空間に配置された仮想カメラの撮像によって得られるシミュレーション画像を生成するための画像生成手段とを含み、
前記画像生成手段は、前記仮想空間において、前記教示点に前記ロボットモデルを配置するとともに、前記ロボットモデルに対する相対位置姿勢が前記推定手段によって推定された相対位置姿勢と一致するように前記仮想カメラを配置したときの第1シミュレーション画像を生成し、
前記制御システムは、さらに、
前記教示点への第1移動指令を前記ロボットコントローラに与え、かつ、前記第1移動指令に従って前記ロボットが駆動制御された後の前記撮像装置の撮像により得られる第1実画像を取得するための第1取得手段と、
前記第1実画像上の前記ロボットの位置姿勢が前記第1シミュレーション画像上の前記ロボットモデルの位置姿勢に近づくように、前記教示点に対する補正量を決定するための決定手段とを備える、制御システム。 - 前記決定手段は、
前記撮像装置の撮像によって得られる実画像上の前記ロボットの位置姿勢と前記第1シミュレーション画像上の前記ロボットモデルの位置姿勢との偏差を演算するための偏差演算手段と、
前記第1移動指令に従って駆動制御された前記ロボットの位置姿勢から、前記偏差が予め定められた閾値未満となるときの前記ロボットの位置姿勢までの移動量を前記補正量として演算するための補正量演算手段とを含む、請求項1に記載の制御システム。 - 前記決定手段は、
前記偏差が小さくなる方向への第2移動指令を前記ロボットコントローラに与え、かつ、前記第2移動指令に従って前記ロボットが駆動制御された後の前記撮像装置の撮像によって得られる第2実画像を取得する取得処理を実行するための第2取得手段をさらに含み、
前記第2取得手段は、前記第1移動指令に従って前記ロボットが駆動制御されてから、前記偏差が前記閾値未満になるまで前記取得処理を繰り返して実行し、
前記補正量演算手段は、前記ロボットコントローラに与えられた前記第2移動指令の積算量を前記補正量として演算する、請求項2に記載の制御システム。 - 前記画像生成手段は、前記仮想空間において、前記教示点とは異なる位置姿勢に前記ロボットモデルを移動させるとともに、前記ロボットモデルに対する相対位置姿勢が前記推定手段によって推定された相対位置姿勢と一致するように前記仮想カメラを配置したときの第2シミュレーション画像を生成し、
前記決定手段は、
前記第1実画像上の前記ロボットの位置姿勢と前記第2シミュレーション画像上の前記ロボットモデルの位置姿勢との偏差を演算するための偏差演算手段と、
前記偏差が予め定められた閾値未満となるときの前記ロボットモデルの位置姿勢から、前記教示点に配置された前記ロボットモデルの位置姿勢までの移動量を前記補正量として演算するための補正量演算手段とを含む、請求項1に記載の制御システム。 - 前記撮像装置と前記ロボットコントローラと前記シミュレーション装置とに接続され、前記ロボットコントローラおよび前記撮像装置を制御する制御装置を備え、
前記推定手段、前記第1取得手段および前記決定手段は、前記制御装置に含まれる、請求項1から3のいずれか1項に記載の制御システム。 - ロボットを制御する制御システムにおける制御方法であって、
前記制御システムは、
与えられた移動指令に従って前記ロボットを駆動制御するためのロボットコントローラと、
前記ロボットを撮像するための撮像装置とを備え、
前記制御方法は、
ロボットモデルを用いたオフラインティーチングを実行することにより、前記ロボットが取るべき位置姿勢を示す教示点を設定するステップと、
前記撮像装置の撮像により得られた画像に基づいて、前記ロボットに対する前記撮像装置の相対位置姿勢を推定するステップと、
仮想空間において、前記教示点に前記ロボットモデルを配置するとともに、前記ロボットモデルに対する相対位置姿勢が前記推定するステップによって推定された相対位置姿勢と一致するように仮想カメラを配置したときの前記仮想カメラの撮像によって得られるシミュレーション画像を生成するステップと、
前記教示点への移動指令を前記ロボットコントローラに与え、かつ、前記教示点への移動指令に従って前記ロボットが駆動制御された後の前記撮像装置の撮像により得られる実画像を取得するステップと、
前記実画像上の前記ロボットの位置姿勢が前記シミュレーション画像上の前記ロボットモデルの位置姿勢に近づくように、前記教示点に対する補正量を決定するステップとを備える、制御方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019114597A JP7326911B2 (ja) | 2019-06-20 | 2019-06-20 | 制御システムおよび制御方法 |
CN202010123289.1A CN112109075B (zh) | 2019-06-20 | 2020-02-27 | 控制系统和控制方法 |
US16/805,226 US11498220B2 (en) | 2019-06-20 | 2020-02-28 | Control system and control method |
EP20160429.5A EP3753685B1 (en) | 2019-06-20 | 2020-03-02 | Control system and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019114597A JP7326911B2 (ja) | 2019-06-20 | 2019-06-20 | 制御システムおよび制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021000678A JP2021000678A (ja) | 2021-01-07 |
JP7326911B2 true JP7326911B2 (ja) | 2023-08-16 |
Family
ID=69743152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019114597A Active JP7326911B2 (ja) | 2019-06-20 | 2019-06-20 | 制御システムおよび制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11498220B2 (ja) |
EP (1) | EP3753685B1 (ja) |
JP (1) | JP7326911B2 (ja) |
CN (1) | CN112109075B (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210387350A1 (en) * | 2019-06-12 | 2021-12-16 | Mark Oleynik | Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning |
US11478936B2 (en) * | 2019-10-09 | 2022-10-25 | Canon Kabushiki Kaisha | Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor |
WO2021097487A1 (en) | 2019-11-12 | 2021-05-20 | Bright Machines, Inc. | A software defined manufacturing/assembly system |
EP3834998A1 (de) * | 2019-12-11 | 2021-06-16 | Siemens Aktiengesellschaft | Verfahren, computer-programm-produkt und robotersteuerung zum konfigurieren einer roboter-objekt-systemumgebung sowie roboter |
WO2021172271A1 (ja) * | 2020-02-25 | 2021-09-02 | ファナック株式会社 | ロボットシステム |
CN116568465A (zh) * | 2020-11-10 | 2023-08-08 | 光明机器公司 | 用于机器人单元的改进的自动校准的方法和系统 |
JP2022137797A (ja) * | 2021-03-09 | 2022-09-22 | オムロン株式会社 | 安全検証装置、安全検証方法、およびプログラム |
JP7437343B2 (ja) * | 2021-03-29 | 2024-02-22 | 株式会社日立製作所 | ロボット制御用のキャリブレーション装置 |
US20220395981A1 (en) * | 2021-06-09 | 2022-12-15 | eBots Inc. | System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system |
JPWO2023058221A1 (ja) * | 2021-10-08 | 2023-04-13 | ||
CN113799140A (zh) * | 2021-10-14 | 2021-12-17 | 友上智能科技(苏州)有限公司 | 一种应用在复合机器人上的飞行视觉定位取料方法 |
JP2023062780A (ja) * | 2021-10-22 | 2023-05-09 | 川崎重工業株式会社 | ロボットデータ処理サーバ及び軌跡データ算出方法 |
JP2023062781A (ja) * | 2021-10-22 | 2023-05-09 | 川崎重工業株式会社 | ロボットデータ処理サーバ及び補正プログラム算出方法 |
CN114029952A (zh) * | 2021-11-12 | 2022-02-11 | 珠海格力电器股份有限公司 | 机器人操作控制方法、装置和系统 |
WO2023102647A1 (en) * | 2021-12-06 | 2023-06-15 | University Of Manitoba | Method for automated 3d part localization and adjustment of robot end-effectors |
KR20230143002A (ko) * | 2022-04-04 | 2023-10-11 | 두산로보틱스 주식회사 | 로봇의 기능 모듈의 개발 환경 제공 장치 및 방법 |
JP7364285B1 (ja) | 2022-11-11 | 2023-10-18 | 高丸工業株式会社 | ロボット操作システムの動作方法 |
CN116079738B (zh) * | 2023-02-24 | 2024-08-20 | 中国民用航空飞行学院 | 视觉引导的工业机器人系统标定方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014014912A (ja) | 2012-07-11 | 2014-01-30 | Seiko Epson Corp | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム |
JP2015024480A (ja) | 2013-07-29 | 2015-02-05 | 富士通株式会社 | 情報処理装置、制御方法、及びプログラム |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6317953B1 (en) * | 1981-05-11 | 2001-11-20 | Lmi-Diffracto | Vision target based assembly |
US4833381A (en) * | 1987-12-31 | 1989-05-23 | Westinghouse Electric Corp. | Optical automatic seam tracker and real time control system for an industrial robot |
JPH01239989A (ja) | 1988-03-22 | 1989-09-25 | T T T:Kk | フレキシブルプリント基板の接続装置及び接続方法 |
JPH08368B2 (ja) * | 1989-07-21 | 1996-01-10 | 富士通株式会社 | ロボットの遠隔操作装置 |
JPH06134691A (ja) * | 1992-10-23 | 1994-05-17 | Hitachi Ltd | 位置検出方法およびこれを用いたフレキシブル生産システム |
JP3415427B2 (ja) | 1998-02-25 | 2003-06-09 | 富士通株式会社 | ロボットシミュレーションにおけるキャリブレーション装置 |
DE10351669B4 (de) * | 2003-11-05 | 2012-09-13 | Kuka Laboratories Gmbh | Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt |
JP2008021092A (ja) * | 2006-07-12 | 2008-01-31 | Fanuc Ltd | ロボットシステムのシミュレーション装置 |
CN101726296B (zh) * | 2009-12-22 | 2013-10-09 | 哈尔滨工业大学 | 空间机器人视觉测量、路径规划、gnc一体化仿真系统 |
US9508148B2 (en) * | 2010-08-27 | 2016-11-29 | Abb Research Ltd. | Vision-guided alignment system and method |
WO2013176212A1 (ja) * | 2012-05-25 | 2013-11-28 | 学校法人立命館 | ロボット制御装置、ロボット制御方法、プログラム、記録媒体、ロボットシステム |
JP5716769B2 (ja) * | 2013-02-21 | 2015-05-13 | 株式会社安川電機 | ロボットシミュレータ、ロボット教示装置およびロボット教示方法 |
JP5815761B2 (ja) * | 2014-01-23 | 2015-11-17 | ファナック株式会社 | 視覚センサのデータ作成システム及び検出シミュレーションシステム |
CN104067781B (zh) * | 2014-06-16 | 2016-05-18 | 华南农业大学 | 基于虚拟机器人与真实机器人集成的采摘系统及方法 |
CN104199313B (zh) * | 2014-09-15 | 2017-06-20 | 中国农业科学院农业信息研究所 | 一种机器人智能仿真测试系统 |
US9919427B1 (en) * | 2015-07-25 | 2018-03-20 | X Development Llc | Visualizing robot trajectory points in augmented reality |
JP6430986B2 (ja) * | 2016-03-25 | 2018-11-28 | ファナック株式会社 | ロボットを用いた位置決め装置 |
CN106651949B (zh) * | 2016-10-17 | 2020-05-15 | 中国人民解放军63920部队 | 一种基于仿真的空间机械臂抓捕目标遥操作方法及系统 |
CN106737683A (zh) * | 2017-01-11 | 2017-05-31 | 吉林省凯迪科技有限公司 | 校正工业机器人离线编程在现场中的误差的方法 |
CN108830905A (zh) * | 2018-05-22 | 2018-11-16 | 苏州敏行医学信息技术有限公司 | 仿真医疗器械的双目标定定位方法及虚拟仿真医教系统 |
CN108724190A (zh) * | 2018-06-27 | 2018-11-02 | 西安交通大学 | 一种工业机器人数字孪生系统仿真方法及装置 |
CN112672860B (zh) * | 2018-09-10 | 2024-04-09 | 发纳科美国公司 | 用于ar和数字孪生的机器人校准 |
EP3875230A4 (en) * | 2018-11-01 | 2022-07-27 | Canon Kabushiki Kaisha | EXTERNAL INPUT DEVICE, ROBOT SYSTEM, CONTROL METHOD FOR ROBOT SYSTEM, CONTROL PROGRAM AND RECORDING MEDIA |
US20200262080A1 (en) * | 2019-02-14 | 2020-08-20 | InTune Products LLC | Comprehensive model-based method for gantry robot calibration via a dual camera vision system |
CN110238831B (zh) * | 2019-07-23 | 2020-09-18 | 青岛理工大学 | 基于rgb-d图像及示教器的机器人示教系统及方法 |
US11458630B2 (en) * | 2019-10-15 | 2022-10-04 | X Development Llc | Mitigating reality gap through simulating compliant control and/or compliant contact in robotic simulator |
-
2019
- 2019-06-20 JP JP2019114597A patent/JP7326911B2/ja active Active
-
2020
- 2020-02-27 CN CN202010123289.1A patent/CN112109075B/zh active Active
- 2020-02-28 US US16/805,226 patent/US11498220B2/en active Active
- 2020-03-02 EP EP20160429.5A patent/EP3753685B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014014912A (ja) | 2012-07-11 | 2014-01-30 | Seiko Epson Corp | ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム |
JP2015024480A (ja) | 2013-07-29 | 2015-02-05 | 富士通株式会社 | 情報処理装置、制御方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN112109075A (zh) | 2020-12-22 |
US11498220B2 (en) | 2022-11-15 |
JP2021000678A (ja) | 2021-01-07 |
EP3753685A1 (en) | 2020-12-23 |
EP3753685B1 (en) | 2021-11-24 |
US20200398435A1 (en) | 2020-12-24 |
CN112109075B (zh) | 2024-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7326911B2 (ja) | 制御システムおよび制御方法 | |
US10262406B2 (en) | Simulator, simulation method, and simulation program | |
US10401844B2 (en) | Simulator, simulation method, and simulation program | |
US8977395B2 (en) | Robot control apparatus, robot control method, program, and recording medium | |
CN102848389B (zh) | 基于视觉运动捕捉的机械臂标定及跟踪系统实现方法 | |
JP6826069B2 (ja) | ロボットの動作教示装置、ロボットシステムおよびロボット制御装置 | |
EP2684651A2 (en) | Robot system, robot, robot control device, robot control method, and robot control program | |
CN107627303A (zh) | 一种基于眼在手上结构的视觉伺服系统的pd‑smc控制方法 | |
KR20190070875A (ko) | 비전-기반 조작 시스템들의 교정 및 동작 | |
CN111459274B (zh) | 一种基于5g+ ar的针对非结构化环境的遥操作方法 | |
Gratal et al. | Visual servoing on unknown objects | |
CN115446847A (zh) | 用于提高机器人系统的3d眼手协调准确度的系统和方法 | |
EP4400274A1 (en) | Command value generating device, method, and program | |
Fried et al. | Uncalibrated image-based visual servoing approach for translational trajectory tracking with an uncertain robot manipulator | |
JP7447568B2 (ja) | シミュレーション装置およびプログラム | |
JP6939729B2 (ja) | 制御システム、制御方法およびプログラム | |
CN110900606B (zh) | 一种基于小型机械臂手眼联动系统及其控制方法 | |
CN107443369A (zh) | 一种基于视觉测量模型逆辨识的机器臂无标定伺服控制方法 | |
CN113298881B (zh) | 单目相机-imu-机械臂的空间联合标定方法 | |
US20240351205A1 (en) | Command value generating device, method, and program | |
TWI692968B (zh) | 三維建模裝置及應用於其之校準方法 | |
Wu et al. | A human hybrid tracking and localization method for mixed reality simulation of complex system | |
JP2023011319A (ja) | 調整支援システムおよび調整支援方法 | |
CN118143947A (zh) | 一种位姿确定方法、装置、设备和存储介质 | |
Jagersand | Model Free View Synthesis of an Articulated Agent |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220407 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230717 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7326911 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |