JP5980873B2 - ロボットの干渉領域設定装置 - Google Patents

ロボットの干渉領域設定装置 Download PDF

Info

Publication number
JP5980873B2
JP5980873B2 JP2014213052A JP2014213052A JP5980873B2 JP 5980873 B2 JP5980873 B2 JP 5980873B2 JP 2014213052 A JP2014213052 A JP 2014213052A JP 2014213052 A JP2014213052 A JP 2014213052A JP 5980873 B2 JP5980873 B2 JP 5980873B2
Authority
JP
Japan
Prior art keywords
robot
color
interference area
map
point sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014213052A
Other languages
English (en)
Other versions
JP2016078184A (ja
Inventor
浩次 西
浩次 西
俊一 尾▲崎▼
俊一 尾▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2014213052A priority Critical patent/JP5980873B2/ja
Priority to US14/876,194 priority patent/US9584796B2/en
Priority to DE102015013161.3A priority patent/DE102015013161B4/de
Priority to CN201510673066.1A priority patent/CN105522592B/zh
Publication of JP2016078184A publication Critical patent/JP2016078184A/ja
Application granted granted Critical
Publication of JP5980873B2 publication Critical patent/JP5980873B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Description

本発明は、ロボットの干渉領域を設定する干渉領域設定装置に関する。
従来より、ロボットを用いて作業を行う場合に、ロボットと周囲の障害物との干渉を避けるために、ロボットの周囲に、障害物等が存在する干渉領域を設定し、干渉領域内へのロボットの進入を禁止するようにした装置が知られている。この点に関し、例えば特許文献1には、オフラインで干渉領域を設定し、動作シミュレーションを行う装置が記載されている。特許文献1記載の装置では、CAD装置からロボットおよび障害物等の3次元形状データを読み込み、この3次元形状データを用いて画面上に干渉領域を設定する。さらに、マウス操作等により、安全柵等に対応する干渉領域を画面上に設定する。
特開2005−81445号公報
しかしながら、上記特許文献1記載の装置では、干渉領域を設定するために予め3次元形状モデルを準備し、さらには干渉領域を手動で入力する必要があり、多大な手間を要する。
本発明の一態様であるロボットの干渉領域設定装置は、ロボットの周囲を撮像することにより、距離情報と色情報とを含むロボットの周囲の領域のカメラ画像を取得する位置および姿勢が変更可能で複数の画像を合成可能な3Dカメラと、カメラ画像に基づきロボットの周囲の3次元空間に等間隔に配置される複数の点列からなる3Dマップを生成する3Dマップ生成部であって、各々の点列はカメラ画像に含まれる色情報を有する3Dマップ生成部と、ロボットおよびロボットの周囲の障害物の少なくとも一方の色であり、ロボットと障害物とを区別可能な色を設定する色設定部と、3Dマップ生成部により生成された3Dマップから色設定部で設定された色に対応する色情報を有する点列を検索する色検索部と、色検索部で検索された点列の位置データであって、カメラ画像の距離情報によって得られる位置データに基づき、障害物が存在する領域である干渉領域を設定する干渉領域設定部と、を備え、カメラ画像は、ロボット座標系の基準となるマーカの画像を含み、干渉領域設定部は、マーカの画像に基づいてロボット座標系で干渉領域を設定する
本発明によれば、干渉領域をユーザが手動で入力して設定する必要がなく、障害物の3次元形状モデルを準備する必要もなく、干渉領域を容易に設定することができる。
本発明の実施形態に干渉領域設定装置が適用される加工システムの一例を示す図。 本発明の実施形態に係る干渉領域設定装置の全体構成を示すブロック図。 図2のロボット制御装置で実行される処理の一例を示すフローチャート。
以下、図1〜図3を参照して本発明の実施形態について説明する。図1は、本発明の実施形態に係る干渉領域設定装置が適用される加工システム100の一例を示す図である。この加工システム100は、ロボット1と工作機械2とを有する。工作機械1はカバー3を有し、カバー3により加工室4が形成されている。カバー3の一部には開閉可能な扉5が設けられ、扉5を介して加工室4内にワークが搬送され、加工室4内でワークが加工される。
加工室4には、ロボット1が配置されている。ロボット1は、例えば回動可能な複数のアームを有する垂直多関節ロボットである。ロボット1はサーボモータの駆動により動作し、アーム先端部でワークや治具等を把持して、工作機械2によるワークの加工を補助する。なお、アーム先端部に溶接装置や塗装装置を取り付けてロボット1を溶接ロボットや塗装ロボットとして構成し、加工室4でロボット1によりワークを加工することもできる。ロボット1は、ロボット制御装置10(図2)に接続され、予め定められたプログラムに従いロボット制御装置10により制御される。作業員がロボット制御装置10にロボット1の駆動指令を入力し、その駆動指令に応じてロボット1を制御することもできる。
このように加工室4に配置されたロボット1を、作業員の操作により動作させる場合、ロボット1が工作機械2の一部(加工室4内のテーブルや床、カバー3等)あるいは加工室4に配置された各種部材(以下、これらをまとめて障害物と呼ぶ)に干渉するおそれがある。したがって、予めロボット1の周囲に、障害物が存在する干渉領域を設定し、ロボット制御装置10により、干渉領域内へのロボット1の移動を禁止することが好ましい。
干渉領域は、例えば大きさや位置の異なる複数の直方体を、作業員がロボット制御装置10に入力することで設定できる。しかしながら、このように干渉領域を手動で設定したのでは手間がかかる。さらに、直方体の数が入力可能な直方体の数の上限に達した場合には、干渉領域を設定できない。障害物の3Dモデルを用いて干渉領域を設定することもできるが、この場合には、障害物の位置や形状が変化する度に3Dモデルを作り直さなければならず、容易でない。そこで、本実施形態では、以下のように3Dカメラ6により取得したロボット1の周囲のカメラ画像を用いて干渉領域を設定する。
3Dカメラ6とは、対象物を異なる方向から同時に撮影し、視差を生み出すことによって、対象物までの距離情報を取得するものであり、ステレオカメラの一種である。3Dカメラ6は、所定距離だけ離れて配置された一対のカメラ6a,6bを有し、一対のカメラ6a,6bはそれぞれ撮像素子を有する。本実施形態の3Dカメラ6は、距離情報だけでなく対象物の色情報(RGB等)も取得する。なお、3Dカメラ6は、レーザを発射して反射位置および反射時間から反射点の距離情報を取得するものであってもよい。
干渉領域を設定する際、まず、3Dカメラ6によりロボット1の周囲(加工室4の全域)が撮像される。ロボット1には、ロボット座標系の基準点(例えば原点)を示すマーカ7(図では矢印)が付されている。したがって、3Dカメラ6によりマーカ7を含む領域を撮像することで、換言すれば、撮像範囲8にマーカ7を含めることで、撮像範囲8内の対象物の位置(XYZ座標)を、ロボット座標系を用いて表すことが算出できる。
図1では、作業員が3Dカメラ6を把持して撮像する例を示している。一方、3Dカメラ6の位置および姿勢を変更可能なカメラスタンドで3Dカメラ6を保持し、外部からの撮影指令により撮像を実行することもできる。この場合には、カメラスタンド駆動用のアクチュエータに制御信号を出力して3Dカメラ6の位置および姿勢を調整することができる。この際、加工室4の全域が撮像範囲8に含まれない場合には、3Dカメラ6の位置および姿勢を変更し、加工室4の全域を撮像し終わるまで、複数個所および複数方向から複数回撮像を繰り返す。これによって得られた複数のカメラ画像を合成することで、加工室4の全域のロボット座標系における距離情報を取得することができる。この際、カメラスタンドでカメラの位置および姿勢を調整せずに、手でカメラを持って撮影した複数の画像を合成できるカメラを用いてもよい。
図2は、本発明の実施形態に係る干渉領域設定装置の全体構成を示すブロック図である。干渉領域設定装置の一部は、ロボット制御装置10により構成される。ロボット制御装置10は、機能的構成として、3Dカメラコントローラ11と、3Dマップ生成部12と、色設定部13と、色検索部14と、干渉領域設定部15と、ロボット制御部16とを有する。
ロボット制御装置10には、教示操作盤9が接続されている。教示操作盤9は入力部9aを有し、入力部9aを介してロボット制御装置10に各種指令を入力することができる。また、教示操作盤9は表示部9bを有し、表示部9bを介して各種指令値や演算結果、干渉領域等を表示することができる。
3Dカメラコントローラ11は、3Dカメラ6を制御する。すなわち、3Dカメラ6に撮影指令を出力し、撮像タイミングを調整する。あるいは、レーザの発射タイミングを調整する。3Dカメラ6をカメラスタンドで保持している場合には、3Dカメラコントローラ11がカメラスタンドに制御信号を出力し、3Dカメラ6の位置および姿勢を変更することもできる。3Dカメラ6によって取得したカメラ画像は、ロボット制御装置10のメモリに記憶される。
3Dマップ生成部12は、メモリに記憶されたカメラ画像(距離情報)に基づき、ロボット1の周囲の3次元空間に等間隔に複数の点列を配置して3Dマップを生成する。すなわち、3Dマップ生成部12は、カメラ画像を用いてロボット1および障害物の位置を特定し、ロボット1および障害物によって形成される3次元空間に、等間隔に点列を設定する。なお、3Dマップを生成した段階では、ロボット1と障害物とがまだ区別されていない。
3Dマップを構成する各々の点列は微小長さの正方形の領域を構成し、各点列はカメラ画像に含まれる色情報(RGB)のデータをそれぞれ有する。すなわち、点列がロボット1や障害物に該当するときは、点列はその色情報を有する。一方、点列が加工室4内の何もない空間に該当するときは、点列に、ロボット1および障害物と区別するための色情報(例えばR,G,B=0,0,0)を与える。3Dマップ生成部12は、さらに3Dカメラ6により取得されたカメラ画像の中から、パターンマッチング等によりマーカ7の画像を特定し、マーカ7に対応した点列に、他の点列と識別可能な色情報(例えばR,G,B=1,1,1)を与える。
色設定部13は、教示操作盤9を介して指令されたロボット1の色(外形色)を設定する。本実施形態では、ロボット1と障害物とが互いに異なる色(それぞれロボット色と障害物色と呼ぶ)で形成されている。例えば、ロボット色は黄色であり、障害物色は黄色以外(例えば灰色)である。なお、ロボット色が複数の色(例えば黄色と赤色)を含んでもよく、その場合の障害物色は、黄色と赤色以外の単一または複数の色である。
色検索部14は、3Dマップ生成部12により生成された3Dマップからマーカ7に対応した色情報を有する点列を検索する。検索された点列を基準点(原点)とすることで、3Dマップの各点列を、ロボット座標系での点列データに変換することができる。さらに色検索部14は、色設定部13で設定されたロボット色(黄色)に対応する色情報(RGB)を有する点列を検索する。ロボット色は経年変化等によりロボットの各部で微妙にずれていることがある。したがって、点列を検索するときは、色情報に所定の幅を持たせ、その幅内にある点列を検索することが好ましい。
干渉領域設定部15は、3次元マップの点列から、色検索部14で検索されたロボット色の点列を除外する。そして、3Dマップの残りの点列の位置データに基づき干渉領域を設定する。これにより障害物の位置データのみで、干渉領域が設定される。設定された干渉領域は、メモリに記憶される。
ロボット制御部16は、予め定めた加工プログラムに基づいて、あるいは作業員からの指令に応じてロボット駆動用のサーボモータに制御信号を出力し、ロボット1を動作させる。この際、ロボット制御部16は、ロボット1が干渉領域に進入したか否かを随時判定し、干渉領域に進入したら、あるいは干渉領域に進入しそうになったら、サーボモータに停止信号を出力してロボット1の動作を停止させる。これによりロボット1と障害物との衝突を防ぐことができる。
図3は、ロボット制御装置10で実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば作業員がロボット制御装置10に干渉領域設定指令を入力すると開始される。
ステップS1では、色設定部13での処理により、教示操作盤9を介して入力されたロボット色を設定する。ステップS2では、3Dカメラコントローラ11での処理により、カメラスタンドおよび3Dカメラ6に制御信号を出力して加工室4の全域を撮像し、マーカ7を含むカメラ画像を取得する。ステップS3では、3Dマップ生成部12での処理により、カメラ画像に基づいて、ロボット1の周囲の3次元空間に複数の点列からなる3Dマップを生成する。
ステップS4では、色検索部14での処理により、3Dマップからマーカ7を検索する。ステップS5では、3Dマップ生成部12での処理により、マーカ7に対応する点列を基準として、3Dマップの各点列をロボット座標系における点列データに変換する。ステップS6では、色検索部14での処理により、ステップS1で設定されたロボット色に対応する色情報を有する点列を検索する。ステップS7では、干渉領域設定部15での処理により、3Dマップの点列からロボット色の点列を除外し、3Dマップの残りの点列の位置データを用いて干渉領域を設定する。
本実施形態によれば以下のような作用効果を奏することができる。
(1)干渉領域設定装置は、ロボット1の周囲を撮像することにより、距離情報と色情報とを含むロボット1の周囲の領域のカメラ画像を取得する3Dカメラ6と、カメラ画像に基づきロボット1の周囲の3次元空間に等間隔に配置される複数の点列からなる3Dマップを生成する3Dマップ生成部12と、ロボット1の色を設定する色設定部13と、3Dマップ生成部12により生成された3Dマップからロボット色に対応する色情報を有する点列を検索する色検索部14と、検索された点列の位置データに基づき干渉領域を設定する干渉領域設定部15とを備える。これにより干渉領域をユーザが手動で入力して設定する必要がなく、障害物の3次元形状モデルをユーザが作成する必要もなく、種々の形状の干渉領域を容易に設定することができる。
(2)色設定部13がロボット色を設定し、色検索部14が3Dマップからロボット色に対応する色情報を有する点列(ロボット点列)を検索し、干渉領域設定部15がロボット点列を除いた3Dマップの残りの点列の位置データに基づき干渉領域を設定する。したがって、ロボット1を除外した適切な干渉領域を容易に設定することができる。
(3)カメラ画像は、ロボット座標系の基準となるマーカ7の画像を含み、干渉領域設定部15は、マーカ7の画像に基づいてロボット座標系で干渉領域を設定する。したがって、ロボット1の位置と干渉領域とが同一の座標系で表され、ロボット1の干渉領域への進入の有無を容易に判定することができる。
なお、上記実施形態では、色設定部13でロボットの色を設定したが、障害物の色を設定するようにしてもよい。この場合、色検索部14が、3Dマップから障害物の色に対応する色情報を有する点列(障害物点列)を検索し、干渉領域設定部15が、障害物点列の位置データに基づき干渉領域を設定すればよい。色設定部13でロボット色と障害物色の両方を設定し、色検索部14で3Dマップからロボット点列と障害物点列をそれぞれ検索するようにしてもよい。すなわち、色検索部14で検索された点列の位置データに基づき干渉領域を設定するのであれば、干渉領域設定部15の構成はいかなるものでもよい。
上記実施形態では、マーカ7に対応した点列に、他の点列と識別可能な色情報を与えて、3Dマップからマーカ7を検索するようにしたが(ステップS4)、3Dマップを作成する際に、マーカ7に対応する点列のデータに何等かの識別子を付して、マーカ7の点列を他の点列と区別するようにしてもよい。すなわち、カメラ画像によって特定されたマーカ7の画像に基づいて干渉領域設定部15がロボット座標系で干渉領域を設定するのであれば、他の構成によりマーカ7を検索してもよい。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態および変形例の構成要素には、発明の同一性を維持しつつ置換可能かつ置換自明なものが含まれる。すなわち、本発明の技術的思想の範囲内で考えられる他の形態についても、本発明の範囲内に含まれる。また、上記実施形態と変形例の1つまたは複数を任意に組み合わせることも可能である。
1 ロボット
6 3Dカメラ
7 マーカ
11 3Dカメラコントローラ
12 3Dマップ生成部
13 色設定部
14 色検索部
15 干渉領域設定部

Claims (3)

  1. ロボットの周囲を撮像することにより、距離情報と色情報とを含む前記ロボットの周囲の領域のカメラ画像を取得する位置および姿勢が変更可能で複数の画像を合成可能な3Dカメラと、
    前記カメラ画像に基づき前記ロボットの周囲の3次元空間に等間隔に配置される複数の点列からなる3Dマップを生成する3Dマップ生成部であって、各々の前記点列は前記カメラ画像に含まれる前記色情報を有する3Dマップ生成部と、
    前記ロボットおよび前記ロボットの周囲の障害物の少なくとも一方の色であり、前記ロボットと前記障害物とを区別可能な色を設定する色設定部と、
    前記3Dマップ生成部により生成された前記3Dマップから前記色設定部で設定された色に対応する色情報を有する点列を検索する色検索部と、
    前記色検索部で検索された前記点列の位置データであって、前記カメラ画像の前記距離情報によって得られる位置データに基づき、前記障害物が存在する領域である干渉領域を設定する干渉領域設定部と、を備え
    前記カメラ画像は、ロボット座標系の基準となるマーカの画像を含み、
    前記干渉領域設定部は、前記マーカの画像に基づいてロボット座標系で前記干渉領域を設定することを特徴とするロボットの干渉領域設定装置。
  2. 請求項1に記載のロボットの干渉領域設定装置において、
    前記色設定部は、前記ロボットの色を設定し、
    前記色検索部は、前記3Dマップから前記ロボットの色に対応する色情報を有するロボット点列を検索し、
    前記干渉領域設定部は、前記ロボット点列を除いた前記3Dマップの残りの点列の位置データに基づき前記干渉領域を設定することを特徴とするロボットの干渉領域設定装置。
  3. 請求項1に記載のロボットの干渉領域設定装置において、
    前記色設定部は、前記障害物の色を設定し、
    前記色検索部は、前記3Dマップから前記障害物の色に対応する色情報を有する障害物点列を検索し、
    前記干渉領域設定部は、前記障害物点列の位置データに基づき前記干渉領域を設定することを特徴とするロボットの干渉領域設定装置。
JP2014213052A 2014-10-17 2014-10-17 ロボットの干渉領域設定装置 Active JP5980873B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014213052A JP5980873B2 (ja) 2014-10-17 2014-10-17 ロボットの干渉領域設定装置
US14/876,194 US9584796B2 (en) 2014-10-17 2015-10-06 Apparatus for setting interference region of robot
DE102015013161.3A DE102015013161B4 (de) 2014-10-17 2015-10-09 Vorrichtung zum Einstellen eines Interferenzbereichs eines Roboters
CN201510673066.1A CN105522592B (zh) 2014-10-17 2015-10-16 机器人的干涉区域设定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014213052A JP5980873B2 (ja) 2014-10-17 2014-10-17 ロボットの干渉領域設定装置

Publications (2)

Publication Number Publication Date
JP2016078184A JP2016078184A (ja) 2016-05-16
JP5980873B2 true JP5980873B2 (ja) 2016-08-31

Family

ID=55638001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014213052A Active JP5980873B2 (ja) 2014-10-17 2014-10-17 ロボットの干渉領域設定装置

Country Status (4)

Country Link
US (1) US9584796B2 (ja)
JP (1) JP5980873B2 (ja)
CN (1) CN105522592B (ja)
DE (1) DE102015013161B4 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102410300B1 (ko) * 2015-06-26 2022-06-20 한국전자통신연구원 스테레오 카메라를 이용한 카메라 위치 측정 장치 및 방법
WO2017214581A1 (en) 2016-06-10 2017-12-14 Duke University Motion planning for autonomous vehicles and reconfigurable motion planning processors
JP6420296B2 (ja) * 2016-12-01 2018-11-07 ファナック株式会社 ロボットの干渉領域を自動で設定するロボット制御装置
JP6457469B2 (ja) 2016-12-08 2019-01-23 ファナック株式会社 移動ロボットの干渉領域設定装置
JP6434550B2 (ja) * 2017-02-06 2018-12-05 ファナック株式会社 可搬型ロボット
CN108032333B (zh) * 2017-10-30 2020-06-09 广州明珞汽车装备有限公司 可批量自动检查机器人仿真姿态的方法
JP2019084609A (ja) * 2017-11-06 2019-06-06 セイコーエプソン株式会社 ロボット制御装置、ロボットおよびロボットシステム
CN108044624A (zh) * 2017-12-11 2018-05-18 上海信耀电子有限公司 一种基于powerlink总线的机器人控制系统
JP6687591B2 (ja) 2017-12-26 2020-04-22 ファナック株式会社 物品搬送装置、ロボットシステムおよび物品搬送方法
TWI822729B (zh) 2018-02-06 2023-11-21 美商即時機器人股份有限公司 用於儲存一離散環境於一或多個處理器之一機器人之運動規劃及其改良操作之方法及設備
JP6994411B2 (ja) * 2018-02-28 2022-01-14 オークマ株式会社 工作機械システム
ES2928250T3 (es) 2018-03-21 2022-11-16 Realtime Robotics Inc Planificación del movimiento de un robot para diversos entornos y tareas y mejora del funcionamiento del mismo
WO2020044491A1 (ja) * 2018-08-30 2020-03-05 TechShare株式会社 ロボット
JP6895128B2 (ja) * 2018-11-09 2021-06-30 オムロン株式会社 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム
JP7147571B2 (ja) * 2019-01-15 2022-10-05 オムロン株式会社 経路生成装置、経路生成方法、及び経路生成プログラム
EP3977226A4 (en) 2019-06-03 2023-06-07 Realtime Robotics, Inc. APPARATUS, METHODS AND ARTICLES FOR FACILITATING MOVEMENT PLANNING IN ENVIRONMENTS HAVING DYNAMIC OBSTACLES
US11673265B2 (en) 2019-08-23 2023-06-13 Realtime Robotics, Inc. Motion planning for robots to optimize velocity while maintaining limits on acceleration and jerk
TW202146189A (zh) 2020-01-22 2021-12-16 美商即時機器人股份有限公司 於多機器人操作環境中之機器人之建置
CN115297999A (zh) * 2020-03-18 2022-11-04 实时机器人有限公司 在机器人的运动规划中有用的机器人操作环境的数字表示
CN112605999B (zh) * 2020-12-22 2022-01-18 杭州北冥星眸科技有限公司 基于红外线深度摄像头技术的机器人障碍检测方法及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005081445A (ja) * 2003-09-04 2005-03-31 Fanuc Ltd ロボットの干渉領域確認装置
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
JP4479372B2 (ja) * 2004-06-25 2010-06-09 ソニー株式会社 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置
JP2007307630A (ja) * 2006-05-16 2007-11-29 Nissan Motor Co Ltd ワーク格納装置およびワーク格納方法
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
KR101461185B1 (ko) * 2007-11-09 2014-11-14 삼성전자 주식회사 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
KR100955483B1 (ko) 2008-08-12 2010-04-30 삼성전자주식회사 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법
JP5343641B2 (ja) * 2009-03-12 2013-11-13 株式会社Ihi ロボット装置の制御装置及びロボット装置の制御方法
JP5539001B2 (ja) * 2010-05-07 2014-07-02 本田技研工業株式会社 制御装置
US9323250B2 (en) * 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
CN102426391B (zh) * 2011-09-05 2014-06-11 华南理工大学 一种判断机器人运行是否发生碰撞的方法
US9393695B2 (en) * 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
JP5742862B2 (ja) * 2013-03-18 2015-07-01 株式会社安川電機 ロボット装置及び被加工物の製造方法

Also Published As

Publication number Publication date
US20160112694A1 (en) 2016-04-21
JP2016078184A (ja) 2016-05-16
US9584796B2 (en) 2017-02-28
DE102015013161A1 (de) 2016-04-21
CN105522592A (zh) 2016-04-27
DE102015013161B4 (de) 2018-04-19
CN105522592B (zh) 2017-07-21

Similar Documents

Publication Publication Date Title
JP5980873B2 (ja) ロボットの干渉領域設定装置
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP5742862B2 (ja) ロボット装置及び被加工物の製造方法
KR101049266B1 (ko) 이동형 로봇
US20160158937A1 (en) Robot system having augmented reality-compatible display
JP4508252B2 (ja) ロボット教示装置
JP4844453B2 (ja) ロボットの教示装置及び教示方法
JP6068429B2 (ja) ロボット識別システム
JP6723738B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6647548B2 (ja) 3次元形状データの作成方法及びプログラム
JP2009053147A (ja) 3次元計測方法および3次元計測装置
JP6469159B2 (ja) 接触センサによるワーク位置検出プログラム生成機能を備えたオフラインプログラミング装置及び方法
JP2021016922A (ja) 三次元データ生成装置及びロボット制御システム
JP2014184543A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
KR20170016436A (ko) 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법
JP2016159387A (ja) 情報処理装置、処理システム、物体移動システム、および、物体移動方法
JP2011154436A (ja) 加工状況監視装置
JP2008009899A (ja) 組立作業用ロボットの自動教示システム及び教示方法
JP4849178B2 (ja) 移動型ロボット
JP2012071394A (ja) シミュレーションシステムおよびそのためのシミュレーションプログラム
JP2021013983A (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
JP2021065971A (ja) ロボット教示システム、画像生成方法、及びプログラム
WO2017038401A1 (ja) ワイヤハーネス製造装置、ワイヤハーネス製造方法及び被加工電線位置特定方法
KR101865691B1 (ko) 인간 로봇 상호작용 기반의 작업 수행 로봇 및 방법
KR20200069713A (ko) 용접로봇의 작업 경로 생성방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160727

R150 Certificate of patent or registration of utility model

Ref document number: 5980873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150