JP2021070149A - ロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラム - Google Patents

ロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラム Download PDF

Info

Publication number
JP2021070149A
JP2021070149A JP2020089195A JP2020089195A JP2021070149A JP 2021070149 A JP2021070149 A JP 2021070149A JP 2020089195 A JP2020089195 A JP 2020089195A JP 2020089195 A JP2020089195 A JP 2020089195A JP 2021070149 A JP2021070149 A JP 2021070149A
Authority
JP
Japan
Prior art keywords
teaching
data
reproduction
unit
robot control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020089195A
Other languages
English (en)
Other versions
JP2021070149A5 (ja
JP7199101B2 (ja
Inventor
一城 平泉
Kazuki Hiraizumi
一城 平泉
直子 目
Naoko Sakka
直子 目
原田 寛
Hiroshi Harada
寛 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YOODS KK
Original Assignee
YOODS KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=75712192&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2021070149(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by YOODS KK filed Critical YOODS KK
Priority to CN202180059579.7A priority Critical patent/CN116133801A/zh
Priority to PCT/JP2021/005620 priority patent/WO2021235030A1/ja
Publication of JP2021070149A publication Critical patent/JP2021070149A/ja
Publication of JP2021070149A5 publication Critical patent/JP2021070149A5/ja
Application granted granted Critical
Publication of JP7199101B2 publication Critical patent/JP7199101B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】教示時と再生時とで対象物体の位置がずれていても、そのずれの影響を除去することができる。【解決手段】ロボット制御システム1000は3次元計測カメラ150とロボットアーム160とロボット制御装置100とを備える。3次元計測カメラ150はロボットアーム160に取り付けられ対象物体の3次元位置を計測する。ロボット制御装置100は、教示時の対象物体の3次元位置である基準位置を取得する基準位置取得部111と、再生時の対象物体の3次元位置である再生位置を取得する再生位置取得部112と、基準位置取得部111が取得した基準位置を再生位置取得部112が取得した再生位置に変換する変換データを算出する変換データ算出部113と、変換データ算出部113が算出した変換データを用いて教示データを変換してから再生することによってロボットアーム160を動かす再生部114と、を備える。【選択図】図1

Description

本発明は、ロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラムに関する。
製品の自動組立工程等において、部品を自動的にピッキングするピッキング装置が知られている。例えば、特許文献1には、部品の位置を予め教示しておき、教示された位置に基づいて部品をピッキングするピッキングロボットが開示されている。
特開2007−319997号公報
特許文献1に開示されているピッキングロボットでは、複数のワーク(ピッキング対象物体)の把持位置を共通化することにより、ピッキングロボットへの教示工数を低減することを可能にしている。しかし、このピッキングロボットでは、教示時のワーク位置と、当該教示処理によって作成された教示データに基づいてピッキング処理を行う時(再生時)のワーク位置と、の間にずれがないことを前提としている。したがって、教示時と再生時とで、ワーク位置にずれが生じている場合には、適切なピッキング処理を行うことができない。
本発明は、上記実情に鑑みてなされたものであり、教示時と再生時とで対象物体の位置がずれていても、そのずれの影響を除去することができるロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明の第1の観点に係るロボット制御システムは、
3次元計測カメラと、ロボットアームと、ロボット制御装置と、を備えるロボット制御システムであって、
前記3次元計測カメラは、前記ロボットアームに取り付けられ、対象物体の3次元位置を計測し、
前記ロボット制御装置は、
予め教示された教示データを再生することによって前記ロボットアームを動かすロボット制御装置であって、
教示時の前記対象物体の3次元位置である基準位置を前記3次元計測カメラから取得する基準位置取得部と、
再生時の前記対象物体の3次元位置である再生位置を前記3次元計測カメラから取得する再生位置取得部と、
前記基準位置取得部が取得した基準位置を、前記再生位置取得部が取得した再生位置に変換する変換データを算出する変換データ算出部と、
前記変換データ算出部が算出した変換データを用いて前記教示データを変換してから再生することによって前記ロボットアームを動かす再生部と、
を備える。
前記ロボット制御装置は、
さらに、前記教示データのうち、最初の教示データから修正が必要な教示データである修正必要教示データまで再生した後に再度教示を受けて、前記修正必要教示データを修正する教示部を備える、
ようにしてもよい。
また、本発明の第2の観点に係るロボット制御装置は、
対象物体の3次元位置を計測する3次元計測カメラが取り付けられたロボットアームを、予め教示された教示データを再生することによって動かすロボット制御装置であって、
教示時の前記対象物体の3次元位置である基準位置を前記3次元計測カメラから取得する基準位置取得部と、
再生時の前記対象物体の3次元位置である再生位置を前記3次元計測カメラから取得する再生位置取得部と、
前記基準位置取得部が取得した基準位置を、前記再生位置取得部が取得した再生位置に変換する変換データを算出する変換データ算出部と、
前記変換データ算出部が算出した変換データを用いて前記教示データを変換してから再生することによって前記ロボットアームを動かす再生部と、
を備える。
さらに、前記教示データのうち、最初の教示データから修正が必要な教示データである修正必要教示データまで再生した後に再度教示を受けて、前記修正必要教示データを修正する教示部を備える、
ようにしてもよい。
前記基準位置を表す点群データを編集する点群データ編集部をさらに備え、
前記基準位置取得部は、前記点群データ編集部が編集した点群データで表される基準位置を取得する、
ようにしてもよい。
また、本発明の第3の観点に係るロボット制御方法は、
対象物体の3次元位置を計測する3次元計測カメラが取り付けられたロボットアームを、予め教示された教示データを再生することによって動かすロボット制御方法であって、
教示時の前記対象物体の3次元位置である基準位置を前記3次元計測カメラから取得する基準位置取得ステップと、
再生時の前記対象物体の3次元位置である再生位置を前記3次元計測カメラから取得する再生位置取得ステップと、
前記基準位置取得ステップで取得された基準位置を、前記再生位置取得ステップで取得された再生位置に変換する変換データを算出する変換データ算出ステップと、
前記変換データ算出ステップで算出された変換データを用いて前記教示データを変換してから再生することによって前記ロボットアームを動かす再生ステップと、
を備える。
さらに、前記教示データのうち、最初の教示データから修正が必要な教示データである修正必要教示データまで再生した後に再度教示を受けて、前記修正必要教示データを修正する再教示ステップを備える、
ようにしてもよい。
また、本発明の第4の観点に係るプログラムは、
対象物体の3次元位置を計測する3次元計測カメラが取り付けられたロボットアームを、予め教示された教示データを再生することによって動かすロボット制御装置のコンピュータに、
教示時の前記対象物体の3次元位置である基準位置を前記3次元計測カメラから取得する基準位置取得ステップ、
再生時の前記対象物体の3次元位置である再生位置を前記3次元計測カメラから取得する再生位置取得ステップ、
前記基準位置取得ステップで取得された基準位置を、前記再生位置取得ステップで取得された再生位置に変換する変換データを算出する変換データ算出ステップ、及び、
前記変換データ算出ステップで算出された変換データを用いて前記教示データを変換してから再生することによって前記ロボットアームを動かす再生ステップ、
を実行させる。
前記コンピュータに、
さらに、前記教示データのうち、最初の教示データから修正が必要な教示データである修正必要教示データまで再生した後に再度教示を受けて、前記修正必要教示データを修正する再教示ステップ、
を実行させるようにしてもよい。
本発明によれば、教示時と再生時とで対象物体の位置がずれていても、そのずれの影響を除去することができる。
実施形態に係るロボット制御システムの機能構成の一例を示すブロック図である。 実施形態に係る教示処理のフローチャートである。 実施形態に係る3次元計測カメラで撮影される対象物体の一例を示す図である。 ロボットアームの教示時の動きの一例を説明する図である。 実施形態に係る再生処理のフローチャートである。 ロボットアームの再生時の動きの一例を説明する図である。 実施形態に係るロボットアームの可動域における誤差が補正されることを説明する図である。 実施形態に係る再教示処理のフローチャートである。 ロボットアームの再教示時の動きの一例を説明する図である。 ロボット制御装置と画像処理装置とを備えるロボット制御システムの機能構成の一例を示すブロック図である。
以下、本発明の実施形態について、図面を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。
(実施形態)
実施形態に係るロボット制御システム1000は、図1に示すように、3次元計測カメラ150と、ロボットアーム160と、ロボット制御装置100と、を備える。ロボット制御システム1000は、予め、ロボットアーム160の動作に関してユーザ(操作者)から教示を受け、教示された内容(教示データ)を再生することによって、ロボットアーム160を動かすシステムである。
3次元計測カメラ150は、撮影した物体までの距離を計測できるカメラであり、3次元センサ、デプスセンサ、測距センサ等とも呼ばれる。このようなカメラの装置構成としては、2つのカメラで構成されるもの、1つのカメラと1つのプロジェクタとで構成されるもの、2つのカメラと1つのプロジェクタとで構成されるもの等があるが、3次元計測カメラ150の装置構成はいずれの構成でもよい。3次元計測カメラ150は、図1に示すように、ロボットアーム160に取り付けられており、ロボットアーム160の先に存在する対象物体310を撮影する。ロボット制御装置100は、3次元計測カメラ150が撮影した対象物体310の画像データから、後述する点群のデータを取得することにより、対象物体310の3次元位置を取得することができる。
ロボットアーム160は、先端にロボットハンド161を備える。ロボット制御装置100が教示データを再生することにより、ロボットアーム160は、例えば対象物体310をロボットハンド161でつかんで持ち上げる等の動作を行うことができる。
ロボット制御装置100は、図1に示すように、制御部110と、記憶部120と、画像入力部131と、表示部132と、操作入力部133と、ロボット制御部134と、を備える。
制御部110は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等で構成され、ロボット制御装置100の各部を制御する。
記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)等で構成される。記憶部120には、制御部110で各種処理を行うためのプログラム等が予め記憶されている。また、記憶部120は、3次元計測カメラ150が撮影した画像データや、制御部110が演算処理等に使用するデータ等を記憶する。
画像入力部131は、制御部110と3次元計測カメラ150との間のインタフェースである。3次元計測カメラ150が撮影した画像データは、画像入力部131を介して、制御部110に入力される。また、3次元計測カメラ150への撮影命令は、画像入力部131を介して、制御部110から3次元計測カメラ150へ送信される。
表示部132は、3次元計測カメラ150が撮影した画像データや、ロボットアーム160の操作UI(User Interface)画面等を表示するためのデバイスである。例えば、表示部132は、液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイを備える。ただし、ロボット制御装置100は、表示部132としてこれらのディスプレイを備えてもよいし、外部のディスプレイを接続するためのインタフェースとしての表示部132を備えてもよい。ロボット制御装置100は、インタフェースとしての表示部132を備える場合は、表示部132を介して接続した外部のディスプレイに画像データ等を表示する。
操作入力部133は、ロボット制御装置100に対するユーザの操作入力を受け付けるデバイスであり、例えば、キーボード、マウス、タッチパネル等である。ロボット制御装置100は、操作入力部133を介して、ユーザからの指示等を受け付ける。
ロボット制御部134は、制御部110とロボットアーム160との間のインタフェースである。ロボットアーム160を動かす命令は、ロボット制御部134を介して、制御部110からロボットアーム160へ送信される。また、制御部110は、ロボットアーム160の現在の3次元位置を、ロボット制御部134を介して、取得することができる。
制御部110は、記憶部120に記憶されているプログラムを実行することにより、基準位置取得部111、再生位置取得部112、変換データ算出部113、再生部114、教示部115として機能する。
基準位置取得部111は、教示時の撮影対象の物体の3次元位置である基準位置を、3次元計測カメラ150が撮影した画像から取得する。
再生位置取得部112は、再生時の撮影対象の物体の3次元位置である再生位置を、3次元計測カメラ150が撮影した画像から取得する。
変換データ算出部113は、基準位置取得部111が取得した基準位置を、再生位置取得部112が取得した再生位置に変換する変換データを算出する。
再生部114は、変換データ算出部113が算出した変換データを用いて教示データを変換し、変換後の教示データに基づいて、ロボットアーム160に対する動作命令を、ロボット制御部134からロボットアーム160に送信することによってロボットアームを動かす。なお、教示データに基づいて、ロボットアーム160に対する動作命令を、ロボット制御部134からロボットアーム160に送信することを、「教示データを再生する」と言う。
教示部115は、操作入力部133を介してユーザから、ロボットアーム160の動作に関する教示を受けて教示データを取得し、取得した教示データを記憶部120に記憶する。教示データには、ロボットアーム160の移動先(教示点)の座標の情報や、当該移動先におけるロボットハンド161の動作の種類(つかむ、はなす等)の情報が含まれる。以上、ロボット制御システム1000の構成について説明した。
(教示処理)
次に、ロボット制御システム1000の教示処理について、図2を参照して説明する。ユーザが操作入力部133を介して、ロボット制御装置100に対して、教示処理の開始を指示すると、この教示処理が開始される。
まず、ユーザは、操作入力部133を介してロボットアーム160を操作し、ロボットアーム160を撮影位置へ移動させる(ステップS101)。ステップS101では、制御部110が、操作入力部133で受け付けたユーザの操作指示を、ロボット制御部134に出力することにより、ロボットアーム160が撮影位置に移動する。なお、図3に示すように、ロボットアーム160を撮影位置170に移動させると、3次元計測カメラ150の撮影方向に、ロボットアーム160が扱う対象物体310が予め設置されている(ユーザは、撮影位置における3次元計測カメラ150の先に対象物体310を設置してから、ロボット制御装置100に対して、教示処理の開始を指示する)ものとする。この撮影位置は、後述する教示点とは異なっていてもよい。また、ここでは、図3に示すように、対象物体310は、台320の上に設置されているものとする。
次に、制御部110は、3次元計測カメラ150に撮影命令を出して、画像入力部131から3次元計測カメラが撮影した対象物体310の画像データを取得するとともに、ロボット制御部134を介して、現在のロボットアーム160の3次元位置を取得する(ステップS102)。ここで取得されるロボットアーム160の3次元位置は、ロボットアーム160の制御機構を基準とした座標系(ロボット座標系)における座標(ロボット座標)で表されているものとするが、例えば地球を基準としたワールド座標系における座標で表してもよい。
次に、基準位置取得部111は、対象物体310の点群の3次元位置のデータ(点群データ)を取得する(ステップS103)。ステップS103は、基準位置取得ステップとも呼ばれる。ここで取得される点群の3次元位置は、3次元計測カメラ150から見た座標系(カメラ座標系)における座標(カメラ座標)で表されているものとするが、ロボットアーム160の3次元位置と同様に、例えば地球を基準としたワールド座標系における座標で表してもよい。また、点群とは、3次元物体をドット単位(例えば0.1mm単位)で離散化した3次元座標(XYZ座標)データの集合である。
本実施形態では、3次元計測カメラ150で撮影した画像データから得られる各特徴点までの距離と、撮影時の3次元計測カメラ150の3次元位置(3次元計測カメラ150はロボットアーム160に取り付けられているので、ロボットアーム160の3次元位置から算出可能)とから、当該各特徴点の3次元座標を求め、当該各特徴点の3次元座標データの集合を点群データとしている。特徴点とは、画像データに含まれる特徴的な部分(エッジ部分、色の境界部分等)を示す点である。ここで取得される点群データは、教示時の対象物体310の3次元位置である基準位置を表しているデータである。なお、点群としては、特徴点に限定せずに画像データに含まれる物体の表面全体を離散化した3次元座標データの集合を用いてもよい。本実施形態では、特徴点に限定しても特に問題はなく、また計算量を削減できるため、特徴点の3次元座標データの集合を点群として扱う。
図3の例では、対象物体310のエッジ部分、台320のエッジ部分等を表す特徴点の集まりが、点群データとして取得されることになる。つまり、ここで取得される点群データには、対象物体310だけでなく、背景(台320等)をはじめとする不要な部分の点群が含まれる。なお、上記のドット単位として、「例えば0.1mm単位」としたのは一例である。ドット単位としては、ロボットアーム160の移動精度、対象物体310の大きさ等に基づき、適切な値を設定すればよく、例えば、0.5mm単位、1mm単位等にしてもよい。
次に、基準位置取得部111は、ステップS103で取得した点群データを編集する(ステップS104)。ステップS104は、編集ステップとも呼ばれる。また、ステップS104において、基準位置取得部111は、点群データ編集部として機能する。ステップS103で取得された点群データには、背景等、対象物体310以外の点が含まれるので、ステップS104では、不要な点の削除が行われる。また、後述する変換データ算出ステップにおいて、マスターデータとのマッチング処理が適切に行われるように、必要に応じて解像度を調整する処理もステップS104で行われる。
ステップS104での編集は、具体的には、例えば、表示部132に点群を表示し(必要に応じて点群にする前の画像も重ね合わせて表示してもよい)、操作入力部133を介して、ユーザに、表示された点群に含まれる背景等の不要な点の削除をしてもらうことにより行う。その際は、Z方向(鉛直方向)で境界となる高さをユーザに入力してもらい、Z座標が当該入力された高さに満たない点群については背景とみなして消去する処理を行ってもよい。
次に、基準位置取得部111は、ステップS104で編集された後の点群データをマスターデータとして、記憶部120に記憶する(ステップS105)。点群データの座標は、上述したように3次元計測カメラ150から見た座標系(カメラ座標系)における座標(カメラ座標)で表されているが、マスターデータとして記憶する際には、ロボット座標系における座標(ロボット座標)に変換できるようにして記憶する。例えば、カメラ座標での点群データと、ステップS102で取得したロボットアーム160の3次元位置(ロボット座標)とをセットにして記憶部120に記憶する。または、記憶部120に記憶する前に、ステップS102で取得したロボットアーム160の3次元位置(ロボット座標)に基づいて、カメラ座標での点群データを、ロボット座標に変換してから記憶部120に記憶してもよい。
なお、ロボットアーム160の座標も点群データの座標も同じ座標系(例えばワールド座標系)での座標で表されているなら、点群データの座標を(ロボット座標系での座標に変換する必要はなく)そのままマスターデータとして記憶部120に記憶してよい。
次に、教示部115は、ユーザからロボットアーム160の動作について教示を受け、それによって得られた教示データを記憶部120に記憶する(ステップS106)。ステップS106では、ユーザはロボットアーム160に行わせたい動作を、操作入力部133を介して順次入力し、実際にロボットアーム160を動かしながら、教示を行う。例えば、図4に示すように、ユーザは、まずロボットアーム160を教示点301に動かし、次に教示点302に動かしてロボットハンド161で物体300をつかませ、次にロボットアーム160を教示点303に動かす、というような動作を教示する。教示部115は、ユーザから教示された全ての教示点の座標や、ロボットハンド161の動作(つかむ、はなす等)を教示データとして記憶部120に記憶する。
教示部115は、ステップS106で教示データを記憶したら、教示処理を終了する。以上、教示処理について説明した。
(再生処理)
次に、ロボット制御システム1000が教示処理によって得られた教示データを再生する再生処理について、図5を参照して説明する。ユーザが操作入力部133を介して、ロボット制御装置100に対して、再生処理の開始を指示すると、この再生処理が開始される。なお、教示処理と同様に、ユーザが、再生処理の開始を指示する前に、撮影位置における3次元計測カメラ150の撮影方向に、対象物体310が設置されているものとする。
まず、ユーザは、操作入力部133を介してロボットアーム160を操作し、ロボットアーム160を撮影位置へ移動させる(ステップS201)。ステップS201は、教示処理(図2)のステップS101と同様の処理である。
次に、制御部110は、3次元計測カメラ150に撮影命令を出して、画像入力部131から3次元計測カメラ150が撮影した対象物体310の画像データを取得するとともに、ロボット制御部134を介して、現在のロボットアーム160の3次元位置を取得する(ステップS202)。ステップS202は、教示処理のステップS102と同様の処理である。
次に、再生位置取得部112は、対象物体310の点群データを取得する(ステップS203)。ステップS203は、教示処理のステップS103と同様の処理であるが、ステップS203で取得される点群データは、再生時の対象物体310の3次元位置である再生位置を表しているデータである。ステップS203は、再生位置取得ステップとも呼ばれる。教示処理のステップS103と同様に、ここで取得される点群データには、対象物体310だけでなく、背景(台320等)をはじめとする不要な部分の点群が含まれる。
そして、変換データ算出部113は、ステップS203で取得した点群データと、教示処理のステップS105で記憶部120に記憶したマスターデータと、をマッチングさせて、教示時の座標(基準位置)を再生時の座標(再生位置)に変換する変換データを算出する(ステップS204)。ステップS204は、変換データ算出ステップとも呼ばれる。例えば、変換データ算出部113は、ステップS203で取得した点群データ(再生時の座標)と、マスターデータ(教示時の座標)と、をそれぞれ同じ座標系(例えばロボット座標系)での座標に変換した上で、ICP(Iterative Closest Point)アルゴリズム等を用いてマッチングさせ、教示時の座標を再生時の座標に変換する座標変換行列Aを算出する。
なお、ステップS203において、対象物体310が台320の上に複数存在する等、3次元計測カメラ150が撮影した画像データの中に、複数の対象物体310が存在する場合もありえる。この場合は、ステップS204において、変換データ算出部113は、複数の対象物体310の中から、最も適切と考えられる対象物体310を1つ選択し、選択した1つの対象物体310の点群データとマスターデータとをマッチングさせる。ここで、最も適切と考えられる対象物体310を1つ選択する方法としては、例えば、各対象物体310の点群の適合度を評価して、マスターデータとの適合度が最も高い対象物体310を選択する方法が挙げられる。この方法を以下に説明する。
ステップS202で取得した画像データの中に存在する複数の対象物体310の数をnで表す。また、マスターデータに含まれる点の数をNで表す。そして、マスターデータに含まれる点のうち、i番目(iは1以上n以下の整数)の対象物体310の点群に含まれる点(当該マスターデータに含まれる点との対応点)との距離が所定の閾値以内の点の数をMiで表す。このとき、i番目の対象物体310の適合度をMi/Nで表す。変換データ算出部113は、適合度(Mi/N)が最も大きい対象物体310を選択する。例えばこのような方法により、変換データ算出部113は、複数の対象物体310の中から、最も適切と考えられる対象物体310を1つ選択することができる。
次に、再生部114は、記憶部120に記憶されている教示データに含まれる教示点の座標を、ステップS204で算出された変換データ(座標変換行列A)を用いて、再生時の座標に変換する(ステップS205)。ステップS205の処理により、例えば、図6に示すように、マスターデータの座標(教示時の座標系Cでの座標)は、再生時の座標(教示時の座標系Cでの座標を座標系C’に投影した座標)に変換される。ステップS205は、変換ステップとも呼ばれる。
なお、ロボットによっては、ロボットアーム160の位置を指定する際に用いる座標系C’を定義し、教示時の座標系Cをその定義した座標系C’に切り替える機能を持っている場合がある。この機能は、ロボットに、基準とする座標系を(教示時の座標系である)座標系Cから(現在の再生位置の基準となっている座標系である)座標系C’に切り替えるように指示を出すことにより、ロボットアーム160の位置を指定したり教示を受けたりする際の座標を座標系C’における座標にすることができる機能である。この機能を用いる場合、上述のように座標を変換する代わりに、座標系C’を定義して座標系の切り換えを行ってもよい。
すなわち、ステップS204及びステップS205では、再生部114は、上述のように座標の変換をする代わりに、再生時の座標系C’を定義し、ロボットに、マスターデータの座標系(教示時の座標系C)を、再生時の座標系C’に切り替える指示を出すことにより、図4に示す教示時の(座標系Cでの)座標を図6に示すように再生時の座標(座標系C’に投影した座標)としてそのまま用いることができるようにしてもよい。このように、ロボットが扱う座標系を切り替えることによって、座標の値自体は変更せずに、教示時の座標を再生時の座標に変換することも、結局は、ロボット側で教示時の座標を(例えば座標変換行列Aを用いて)再生時の座標に変換しているので、教示データの変換に含まれるものとする。
そして、再生部114は、ステップS205で変換した教示データを再生して、ロボットアーム160を制御し(ステップS206)、再生処理を終了する。ステップS206では、例えば、図6に示すように、再生部114は、まずロボットアーム160を教示点301’に動かし、次に教示点302’に動かしてロボットハンド161で物体300をつかませ、次に教示点303’にロボットアーム160を移動させる。ステップS206は、再生ステップとも呼ばれる。
上述の教示処理を行ってから上述の再生処理を行うことにより、教示時と再生時とで物体300の位置や傾きがずれていても(さらに言えば、ロボットアーム160を備えるロボットの位置や傾きがずれていても)、ロボットアーム160は、教示時に物体300に関して教示された内容を、再生時に適切に再生することができる。つまり、教示時と再生時とで対象物体の位置がずれていても、そのずれの影響を除去することができる。
また、教示時と再生時とにおける対象物体の位置のずれの有無によらず、教示時と再生時とで、3次元計測カメラ150の物体測位誤差が生じる場合があるが、この物体測位誤差は、3次元計測カメラ150からは、対象物体の位置ずれと同様のものとして観測される。したがって、この物体測位誤差の影響も、上述の処理によって除去することができる。
さらに、教示時と再生時とにおける対象物体の位置のずれの有無や物体測位誤差の有無によらず、ロボットアーム160の可動域において、教示時の座標(指示座標)と、再生時の座標(実座標)に誤差が存在する場合がある。しかし、3次元計測カメラ150がロボットアーム160に取り付けられていることから、この誤差の影響も、上述の処理によって除去することができる。このことについて、図7を参照して説明する。
ここでは、物体が、教示時の位置(座標P)から、既知の移動量Tだけ移動したときを考える。物体の動きに追随するために、ロボットアーム160に移動量Tを指示したとき、ロボットアーム160の移動量の誤差が0であれば、教示時のカメラビューと、再生時のカメラビューとで、カメラビュー内の物体の位置には変化がないはずであり、この場合は問題がない。しかし、例えば、ロボットアーム160の移動量にΔTの誤差があったとする。
すると、この誤差により、再生時のカメラビュー内の物体は−ΔT移動しているように認識される。よって、再生時の3次元計測カメラ150による計測では、物体の移動量はT−ΔTと計測される。
この結果、上述の再生処理における変換データにより、教示時の教示点(座標P)が移動量Tだけ移動した場合、再生部114は、再生時には座標Q=P+(T−ΔT)への移動として、ロボットアーム160に指示する。
すると、ロボットアーム160は、指示された座標Qに対してΔTの誤差を有するため、ロボットアーム160の実際の移動先はQ+ΔTとなる。ここで、Q=P+(T−ΔT)であるから、Q+ΔT=P+Tであり、ロボットアーム160の実際の移動先(Q+ΔT)と物体の実際の移動先(P+T)とは一致する。
このように、本実施形態では、3次元計測カメラ150がロボットアーム160に取り付けられていることから、ロボットアーム160の移動誤差も3次元計測カメラ150で計測されることになり、ロボットアーム160の可動域における、指示座標と実座標との間の誤差も補正することができる。
(再教示処理)
教示データの一部のみを修正したい場合が生じることがある。このとき、修正したい教示点のみを修正したくても、上述の教示処理では、マスターデータを作成した時と全く同じ位置に対象物体310を設置しないと、他の教示点との関係で座標にずれが生じてしまう。しかし、全く同じ位置に対象物体310を設置するのは困難である。そのため、上述の教示処理を用いる場合は、修正したい教示データが教示データの一部のみであったとしても、全ての教示点を教示し直す必要がある。
この問題を解決するための処理として、修正が不要な教示点を再生した後に、修正が必要な教示点のみを再教示することができる再教示処理について、図8を参照して説明する。なお、再教示とは、既に教示済みの教示点について、再度教示を行って、教示点の座標や当該教示点における動作等を修正することを言う。ユーザが操作入力部133を介して、ロボット制御装置100に対して、再教示処理の開始を指示すると、この再教示処理が開始される。また、教示処理及び再生処理と同様に、ユーザが、再教示処理の開始を指示する前に、撮影位置における3次元計測カメラ150の撮影方向に、対象物体310が設置されているものとする。また、ここで用いるロボットは、ロボットアーム160の位置を指定する際に用いる座標系を切り替える機能を持っているものとする。
ステップS301からステップS304までは、再生処理(図5)のステップS201からステップS204までの処理と同様なので、説明を省略する。
ステップS304の次に、教示部115は、ステップS304で算出された変換データに基づいて、座標系C’を定義する(ステップS305)。ここで「座標系C’を定義する」とは、ロボットに、基準とする座標系を(教示時の座標系である)座標系Cから(現在の再生位置の基準となっている座標系である)座標系C’に切り替えるように指示を出すことにより、ロボットアーム160の位置を指定したり教示を受けたりする際の座標を座標系C’における座標にすることを意味する。これにより、指定された位置(教示時の座標系Cにおける座標=再生時の座標系C’における座標。この両座標は座標系が異なるだけで、座標の値自体は等しい。)はロボット側で変換データ(例えば座標変換行列A)を用いて再生時の実空間における座標に変換して扱われる。また、教示された位置(実空間における座標)はロボット側で変換データ(例えば座標変換行列Aの逆行列)を用いて座標系C’における座標(=座標系Cにおける座標)に変換して扱われる。
そして、ステップS305の次に、教示部115は、ユーザからロボットアーム160の動作について、座標系C’において再教示を受け、それによって得られた教示データを記憶部120に記憶し(ステップS306)、再教示処理を終了する。ステップS306は再教示ステップとも呼ばれる。なお、「座標系C’において再教示を受け」とは、教示を受けた実空間における座標を、ステップS304で算出された変換データに基づいてロボット側で座標系C’における座標(=元の教示時の座標系Cにおける座標)に変換し、その座標系Cにおける座標を取得することを意味する。
また、(例えば使用するロボットが、ロボットアーム160の位置を指定する際に用いる座標系を切り替える機能を持っていない場合等)ステップS305及びステップS306では、教示部115は、上述のように座標系C’を定義して座標系C’において再教示を受ける代わりに、再教示を受けた実空間における座標を、ステップS304で算出された変換データ(例えば、上述の座標変換行列の逆行列)に基づいて(元の教示時の座標系である)座標系Cにおける座標に変換し、この変換によって得られたデータを座標系Cにおける教示データ(再教示によって得られた教示データ)として記憶部120に記憶してもよい。
教示処理(図2)によって記憶部120に記憶された教示データは座標系Cにおける座標で表されているので、再教示によって得られた教示データも座標系Cにおける座標で表されたものにする必要がある。上述のような再教示処理を行うことにより、ロボットが、ロボットアーム160の位置を指定する際に用いる座標系を切り替える機能を持っている場合でも持っていない場合でも、再教示で得られる教示データを、教示時の座標系である座標系Cにおける座標で表された教示データとして記憶部120に記憶することができる。
ステップS306では、教示部115は、教示データのうち、最初の教示データから、修正が必要な教示データ(ユーザが修正したいと考えている教示データ(修正必要教示データ))まで、再生することにより、ロボットアーム160を最初の位置から順次動かしていく。そして教示データの再生が、修正必要教示データまで進んだら、新たな(再教示したい)座標や動作をユーザに指定してもらうことによって再度教示を受けて、当該教示データを修正する。
例えば、教示処理において、図4に示すように、ロボットアーム160を教示点301に動かし、教示点302に動かしてロボットハンド161で物体300をつかませ、次に教示点303に動かす、というような教示データを教示させていたとする。そして、ユーザがこれらの教示点のうち、2番目の教示点302を物体300の重心辺りから、物体300の上端辺りに修正したい場合を考える。
この場合は、再教示処理において、図9に示すように、まずロボットアーム160は教示点301’に移動し、次に教示点302’に移動する。教示点302’はユーザが修正したい教示データ(修正必要教示データ)なので、このときユーザは、ロボットアーム160を教示点302’から教示点302’’に移動させる再教示をロボット制御装置100に指示する。その結果、教示部115は、教示点302’を教示点302’’に修正した教示データを記憶部120に記憶させる。
そして、ユーザが修正したい教示データ(修正必要教示データ)がまだ残っているなら、教示部115は次の修正したい教示データ(例えば教示点303’)まで教示データを再生し、再教示を行う。そして、ユーザが修正したい教示データ(修正必要教示データ)について、すべて再教示を行ったら、再教示処理を終了する。
なお、上述のステップS306での処理は一例であり、教示部115は、教示データを最初から順次再生させるようなことをしなくてもよい。例えば、教示部115は、ユーザから修正したい教示データ(修正必要教示データ)の指示を受けて、ロボットアーム160を、その修正必要教示データで示される教示点にダイレクトに移動させて、ユーザから再教示を受けるようにしてもよい。
以上説明した再教示処理により、ロボット制御装置100は、教示データの一部を効率的に修正することができる。
(変形例)
なお、上述の実施形態では、ステップS101、ステップS201及びステップS301で、ユーザがロボットアーム160を撮影位置に移動させていたが、ユーザによる操作を不要にしてもよい。例えば、撮影位置を予め定めておくことにより、ステップS101、ステップS201及びステップS301では、ユーザによる操作なしで、制御部110がロボットアーム160を当該撮影位置に移動させることにしてもよい。
また、上述の実施形態では、ステップS104で点群データを編集することとしていたが、この点群データの編集は必須ではない。ステップS104での点群データの編集は、再生処理のステップS204(及び再教示処理のステップS304)において、教示時の点群データ(マスターデータ)と再生時の点群データとをマッチングしやすくするために行っている。対象物体310から得られる点群データや、背景等の点群データの内容によっては、点群データを編集しなくても問題なくマッチングできる場合がある。このような場合は、ステップS104の処理は不要である。
これとは逆に、再生処理のステップS203とステップS204の間で、教示処理のステップS104と同様に、点群データを編集する処理を行ってもよい。対象物体310から得られる点群データや、背景等の点群データの内容によっては、再生処理においても点群データを編集して、ステップS204でのマスターデータとのマッチングをしやすくした方がよい場合がある。このような場合は、再生処理のステップS203とステップS204の間で、点群データを編集する処理を行ってもよい。再教示処理のステップS303〜ステップS304に関しても同様である。
また、上述の実施形態では、教示処理のステップS106において、実際にロボットアーム160を移動させて教示することとした。これは、実際にロボットアーム160を移動させて教示した方が、ユーザにとってわかりやすく、また正確な教示ができる場合が多いと考えられるからである。しかし、これは教示の一例に過ぎない。例えば、表示部132でロボットアーム160の動きを確認して教示をする等、ロボットアーム160を実際には移動させずに教示を行ってもよい。
また、上述の実施形態では、ロボットアーム160の3次元位置をロボット座標系における座標で表し、点群データの座標をカメラ座標系における座標で表すこととしていたが、これら座標系の選択は任意である。例えば、いずれも地球を基準とするワールド座標系における座標で表すこととしてもよい。
また、上述の実施形態ではロボット制御装置100が3次元計測カメラ150とロボットアーム160の双方を制御したが、ロボット制御装置100は必ずしもこの双方を制御しなければいけないわけではない。例えば、図10に示すように、ロボット制御システム1001がロボット制御装置101とは別に画像処理装置200を備え、この2つの装置がお互いに通信部140及び通信部240を介して通信可能に構成されていてもよい。この場合、ロボット制御装置101がロボットアーム160を制御し、画像処理装置200が3次元計測カメラ150を制御する。
また、この場合、図10に示す制御部210、記憶部220、画像入力部231、表示部232、操作入力部233は、それぞれ、上述のロボット制御装置100(図1)の制御部110、記憶部120、画像入力部131、表示部132、操作入力部133と同様の機能、構成を備える。そして、通信部140及び通信部240は、それぞれ、お互いに通信可能なデバイスを備える。この通信は、無線でも有線でもよい。例えば、通信部140及び通信部240は、それぞれ無線LAN(Local Area Network)のデバイスを備え、お互いにデータ通信可能になっている。
そして、教示処理のステップS102や、再生処理のステップS202では、制御部110は、通信部140を介して、制御部210に、3次元計測カメラ150での撮影命令と、現在のロボットアーム160の3次元位置を送信する。それらを受信した制御部210は、画像入力部231から3次元計測カメラ150が撮影した対象物体310の画像データを取得するとともに、通信部240を介して、ロボットアーム160の3次元位置を取得することになる。
そして、再生処理のステップS205では、再生部114は、通信部140を介して、画像処理装置200の変換データ算出部113が算出した変換データを取得し、当該変換データを用いて、記憶部120に記憶されている教示データに含まれる教示点の座標を、再生時の座標系での座標に変換する。
以上のように、ロボット制御装置101と画像処理装置200とでロボットアーム160の制御と、3次元計測カメラ150の制御及び画像処理と、を分担して行うようにしてもよい。なお、上記及び図10の構成はロボット制御システムの機能の分担の一例であり、ロボット制御システムの各機能を図10とは異なる分担で構成してもよい。
また、ロボット制御装置100,101の制御部110及び画像処理装置200の制御部210の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施の形態では、ロボット制御装置100,101の制御部110が行う処理のプログラムが記憶部120のROMに、また、画像処理装置200の制御部210が行う処理のプログラムが記憶部220のROMに、予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto−Optical Disc)、メモリカード、USB(Universal Serial Bus)メモリ等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の機能を実現することができるコンピュータを構成してもよい。
以上、本発明の好ましい実施の形態について説明したが、本発明は係る特定の実施の形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。
100,101…ロボット制御装置
110,210…制御部
111…基準位置取得部
112…再生位置取得部
113…変換データ算出部
114…再生部
115…教示部
120,220…記憶部
131,231…画像入力部
132,232…表示部
133,233…操作入力部
134…ロボット制御部
140,240…通信部
150…3次元計測カメラ
160…ロボットアーム
161…ロボットハンド
170…撮影位置
200…画像処理装置
300…物体
301,301’,302,302’,302’’,303,303’…教示点
310…対象物体
320…台
1000,1001…ロボット制御システム
C,C’…座標系
P,Q…座標
T…移動量

Claims (9)

  1. 3次元計測カメラと、ロボットアームと、ロボット制御装置と、を備えるロボット制御システムであって、
    前記3次元計測カメラは、前記ロボットアームに取り付けられ、対象物体の3次元位置を計測し、
    前記ロボット制御装置は、
    予め教示された教示データを再生することによって前記ロボットアームを動かすロボット制御装置であって、
    教示時の前記対象物体の3次元位置である基準位置を前記3次元計測カメラから取得する基準位置取得部と、
    再生時の前記対象物体の3次元位置である再生位置を前記3次元計測カメラから取得する再生位置取得部と、
    前記基準位置取得部が取得した基準位置を、前記再生位置取得部が取得した再生位置に変換する変換データを算出する変換データ算出部と、
    前記変換データ算出部が算出した変換データを用いて前記教示データを変換してから再生することによって前記ロボットアームを動かす再生部と、
    を備える、
    ロボット制御システム。
  2. 前記ロボット制御装置は、
    さらに、前記教示データのうち、最初の教示データから修正が必要な教示データである修正必要教示データまで再生した後に再度教示を受けて、前記修正必要教示データを修正する教示部を備える、
    請求項1に記載のロボット制御システム。
  3. 対象物体の3次元位置を計測する3次元計測カメラが取り付けられたロボットアームを、予め教示された教示データを再生することによって動かすロボット制御装置であって、
    教示時の前記対象物体の3次元位置である基準位置を前記3次元計測カメラから取得する基準位置取得部と、
    再生時の前記対象物体の3次元位置である再生位置を前記3次元計測カメラから取得する再生位置取得部と、
    前記基準位置取得部が取得した基準位置を、前記再生位置取得部が取得した再生位置に変換する変換データを算出する変換データ算出部と、
    前記変換データ算出部が算出した変換データを用いて前記教示データを変換してから再生することによって前記ロボットアームを動かす再生部と、
    を備えるロボット制御装置。
  4. さらに、前記教示データのうち、最初の教示データから修正が必要な教示データである修正必要教示データまで再生した後に再度教示を受けて、前記修正必要教示データを修正する教示部を備える、
    請求項3に記載のロボット制御装置。
  5. 前記基準位置を表す点群データを編集する点群データ編集部をさらに備え、
    前記基準位置取得部は、前記点群データ編集部が編集した点群データで表される基準位置を取得する、
    請求項3又は4に記載のロボット制御装置。
  6. 対象物体の3次元位置を計測する3次元計測カメラが取り付けられたロボットアームを、予め教示された教示データを再生することによって動かすロボット制御方法であって、
    教示時の前記対象物体の3次元位置である基準位置を前記3次元計測カメラから取得する基準位置取得ステップと、
    再生時の前記対象物体の3次元位置である再生位置を前記3次元計測カメラから取得する再生位置取得ステップと、
    前記基準位置取得ステップで取得された基準位置を、前記再生位置取得ステップで取得された再生位置に変換する変換データを算出する変換データ算出ステップと、
    前記変換データ算出ステップで算出された変換データを用いて前記教示データを変換してから再生することによって前記ロボットアームを動かす再生ステップと、
    を備えるロボット制御方法。
  7. さらに、前記教示データのうち、最初の教示データから修正が必要な教示データである修正必要教示データまで再生した後に再度教示を受けて、前記修正必要教示データを修正する再教示ステップを備える、
    請求項6に記載のロボット制御方法。
  8. 対象物体の3次元位置を計測する3次元計測カメラが取り付けられたロボットアームを、予め教示された教示データを再生することによって動かすロボット制御装置のコンピュータに、
    教示時の前記対象物体の3次元位置である基準位置を前記3次元計測カメラから取得する基準位置取得ステップ、
    再生時の前記対象物体の3次元位置である再生位置を前記3次元計測カメラから取得する再生位置取得ステップ、
    前記基準位置取得ステップで取得された基準位置を、前記再生位置取得ステップで取得された再生位置に変換する変換データを算出する変換データ算出ステップ、及び、
    前記変換データ算出ステップで算出された変換データを用いて前記教示データを変換してから再生することによって前記ロボットアームを動かす再生ステップ、
    を実行させるためのプログラム。
  9. 前記コンピュータに、
    さらに、前記教示データのうち、最初の教示データから修正が必要な教示データである修正必要教示データまで再生した後に再度教示を受けて、前記修正必要教示データを修正する再教示ステップ、
    を実行させるための請求項8に記載のプログラム。
JP2020089195A 2019-10-30 2020-05-21 ロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラム Active JP7199101B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180059579.7A CN116133801A (zh) 2019-10-30 2021-02-16 机器人控制系统、机器人控制装置、机器人控制方法及程序
PCT/JP2021/005620 WO2021235030A1 (ja) 2019-10-30 2021-02-16 ロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019197058 2019-10-30
JP2019197058 2019-10-30

Publications (3)

Publication Number Publication Date
JP2021070149A true JP2021070149A (ja) 2021-05-06
JP2021070149A5 JP2021070149A5 (ja) 2021-07-26
JP7199101B2 JP7199101B2 (ja) 2023-01-05

Family

ID=75712192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020089195A Active JP7199101B2 (ja) 2019-10-30 2020-05-21 ロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラム

Country Status (3)

Country Link
JP (1) JP7199101B2 (ja)
CN (1) CN116133801A (ja)
WO (1) WO2021235030A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023102647A1 (en) * 2021-12-06 2023-06-15 University Of Manitoba Method for automated 3d part localization and adjustment of robot end-effectors

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4675502A (en) * 1985-12-23 1987-06-23 General Electric Company Real time tracking control for taught path robots
JP2009248214A (ja) * 2008-04-03 2009-10-29 Kanto Auto Works Ltd 画像処理装置、およびロボット制御システム
JP2010172969A (ja) * 2009-01-27 2010-08-12 Yaskawa Electric Corp ロボットシステムおよびロボットの制御方法
JP2018001393A (ja) * 2016-07-08 2018-01-11 キヤノン株式会社 ロボット装置、ロボット制御方法、プログラム及び記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096897B1 (ko) * 2018-12-31 2020-04-03 (주) 엠엔비젼 3d 도면 파일을 이용하여 로봇 제어에 필요한 자동 티칭 시스템 및 티칭 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4675502A (en) * 1985-12-23 1987-06-23 General Electric Company Real time tracking control for taught path robots
JP2009248214A (ja) * 2008-04-03 2009-10-29 Kanto Auto Works Ltd 画像処理装置、およびロボット制御システム
JP2010172969A (ja) * 2009-01-27 2010-08-12 Yaskawa Electric Corp ロボットシステムおよびロボットの制御方法
JP2018001393A (ja) * 2016-07-08 2018-01-11 キヤノン株式会社 ロボット装置、ロボット制御方法、プログラム及び記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023102647A1 (en) * 2021-12-06 2023-06-15 University Of Manitoba Method for automated 3d part localization and adjustment of robot end-effectors

Also Published As

Publication number Publication date
CN116133801A (zh) 2023-05-16
WO2021235030A1 (ja) 2021-11-25
JP7199101B2 (ja) 2023-01-05

Similar Documents

Publication Publication Date Title
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP6640060B2 (ja) ロボットシステム
US20200086495A1 (en) Programming device and robot control method
CN107015530A (zh) 模拟装置以及模拟方法
JP2018001393A (ja) ロボット装置、ロボット制御方法、プログラム及び記録媒体
WO2019239848A1 (ja) ロボット制御システム
CN109648568A (zh) 机器人控制方法、系统及存储介质
WO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2018153874A (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
TW202212081A (zh) 機器手臂的座標系校正設備及校正方法
WO2021235030A1 (ja) ロボット制御システム、ロボット制御装置、ロボット制御方法及びプログラム
JP4085671B2 (ja) データ処理方法、データ処理プログラムおよび記録媒体
JP2009200601A (ja) ビデオ編集装置及びビデオ編集方法
CN113450414A (zh) 一种摄像机标定方法、设备、系统及存储介质
JPH11153430A (ja) 撮影画像管理装置およびそのプログラム記録媒体
CN113858214A (zh) 一种用于机器人作业的定位方法与控制系统
JP2018132847A (ja) 情報処理装置、情報処理方法、およびプログラム
JP3219182B2 (ja) 監視制御装置におけるカメラ制御方法
WO2020067204A1 (ja) 学習用データ作成方法、機械学習モデルの生成方法、学習用データ作成装置及びプログラム
JP4894458B2 (ja) 指示装置、指示システム、指示方法、及び指示プログラム
JP2015026226A (ja) 拾いデータ処理システム
JP7285417B1 (ja) 情報処理方法、情報処理システム及びプログラム
JPH06110544A (ja) ロボットの遠隔操作装置
JP7024795B2 (ja) ロボット教示装置
US20240123611A1 (en) Robot simulation device

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221213

R150 Certificate of patent or registration of utility model

Ref document number: 7199101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150