JP5815761B2 - 視覚センサのデータ作成システム及び検出シミュレーションシステム - Google Patents

視覚センサのデータ作成システム及び検出シミュレーションシステム Download PDF

Info

Publication number
JP5815761B2
JP5815761B2 JP2014010363A JP2014010363A JP5815761B2 JP 5815761 B2 JP5815761 B2 JP 5815761B2 JP 2014010363 A JP2014010363 A JP 2014010363A JP 2014010363 A JP2014010363 A JP 2014010363A JP 5815761 B2 JP5815761 B2 JP 5815761B2
Authority
JP
Japan
Prior art keywords
visual sensor
robot
coordinate system
detection processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014010363A
Other languages
English (en)
Other versions
JP2015136770A (ja
Inventor
寛之 後平
寛之 後平
嘉治 長塚
嘉治 長塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2014010363A priority Critical patent/JP5815761B2/ja
Priority to DE102015000589.8A priority patent/DE102015000589B4/de
Priority to CN201510030467.5A priority patent/CN104802173B/zh
Priority to US14/602,816 priority patent/US9519736B2/en
Publication of JP2015136770A publication Critical patent/JP2015136770A/ja
Application granted granted Critical
Publication of JP5815761B2 publication Critical patent/JP5815761B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39031Use of model for robot and for measuring device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、仮想空間内に配置した視覚センサを用いた検出処理に使用されるデータを作成するデータ作成装置、及び該データ作成装置を有する検出シミュレーションシステムに関する。
従来のオフラインシミュレーションでは、視覚センサを有するロボットシステムでワークの位置姿勢を検出する場合、先ず、ロボットと、視覚センサと、ワーク又は該ワークを保持するジグとのそれぞれの配置位置を定め、次に、ロボットと視覚センサとを関連付けるキャリブレーションを行うことが一般的である。
例えば特許文献1には、カメラにより楕円の基準教示点を持つキャリブレーションワークを撮像し、該基準教示点の位置・方向に基づいて各教示点の画像上の位置を認識し、空間上の位置と自動的に対応付け、各教示点についての画像座標値と空間座標値の組を利用して、カメラパラメータを算出する自動キャリブレーション装置が記載されている。
特許文献2には、ロボットの先端軸に取り付けられたツールの底面にインク等を塗り付けて任意の座標平面上にその形を転写し、転写像をロボットの先端軸に取り付けられた視覚センサで複数の位置から取り込み、その取り込まれたデータから画像処理装置及びホストコンピュータによりロボット先端軸の座標を検出し、その座標位置からロボット先端軸とツールと視覚センサとの関係位置を計算する自動キャリブレーション方法が記載されている。
特許文献3には、ワーク把持用のロボットハンドを装着したロボット本体と、カメラと、画像処理装置とを備えたロボットにおいて、高精度にワーク形状に形成した計測ピースと、ロボットハンドで把持されてカメラ上に位置決めされた計測ピースの画像から計測ピース位置を計測する手段と、ロボット本体側の制御位置と計測ピース位置から、ロボット本体とカメラの座標合わせの計算を行う手段とを備えた自動キャリブレーション機能付きロボットが記載されている。
さらに特許文献4には、四隅に円を有する合せ板をロボットに持たせ、該合せ板をカメラの複数の視野ごとにかつ各視野にまたがってロボット座標軸に沿い移動させ、上記各視野での円中心座標を求めてカメラ座標軸上の円相互の偏差からキャリブレーションとカメラ傾きを求め、上記各視野にまたがった状態で円中心座標を求めてカメラ座標軸上の円相互の偏差から視野オーバラップ量とカメラ軸ずれを求めるようにした自動調整方法が記載されている。
特開平06−137840号公報 特開平06−175712号公報 特開平10−340112号公報 特開平08−071972号公報
上述のように、ロボットと視覚センサとの位置関係を特定するためのキャリブレーションを行う従来技術はいくつか開示されているが、キャリブレーションを行うためには視覚センサによる計測作業が必要である。またこのようなキャリブレーションには特殊な知識が必要であり、所要時間も長く、作業者に多くの負担がかかるものであった。
そこで本発明は、ロボットと視覚センサとを関連付けるキャリブレーションを行わずとも、視覚センサを用いたオフラインシミュレーションを可能とするデータ作成装置及び検出シミュレーションシステムを提供することを目的とする。
上記目的を達成するために、本願第1の発明は、仮想空間内に配置された、ロボット、視覚センサ及び対象物の3次元モデルの位置に基づいて、前記視覚センサを用いた検出処理に使用されるデータを作成するデータ作成装置であって、前記仮想空間内に規定された基準座標系に基づいて、前記仮想空間内の前記ロボットの配置位置を指定するロボット配置位置指定部と、前記基準座標系に基づいて、前記仮想空間内の前記視覚センサの配置位置を指定する視覚センサ配置位置指定部と、前記ロボット及び前記視覚センサの指定された配置位置を記憶する配置位置記憶部と、前記ロボット及び前記視覚センサの配置位置に基づいて、前記ロボットについて規定されたロボット座標系と、前記視覚センサについて規定されたセンサ座標系との間の位置関係を算出する位置関係算出部と、前記位置関係を、前記視覚センサの検出処理に使用されるデータとして記憶する位置関係記憶部と、を備えることを特徴とする、データ作成装置を提供する。
第2の発明は、第1の発明において、前記基準座標系に基づいて、前記仮想空間内の前記対象物の位置を指定する対象物位置指定部と、前記視覚センサと前記対象物との間の位置関係に基づいて、前記視覚センサにより前記対象物を撮像した場合に得られる画像に相当する擬似的な画像であるコンピュータグラフィックス画像を生成するCG画像生成部と、をさらに有する、データ作成装置を提供する。
第3の発明は、第1又は第2の発明において、前記視覚センサの3次元モデルは、前記ロボットの3次元モデルの可動部に取り付けられている、データ作成装置を提供する。
第4の発明は、第2の発明に係るデータ作成装置と、前記視覚センサの検出処理に使用されるデータを用いて、前記対象物の位置の検出処理を行う画像処理装置と、を有する、検出シミュレーションシステムを提供する。
第5の発明は、第4の発明において、前記画像処理装置は、前記データを用いて前記コンピュータグラフィックス画像に対して検出処理を行う検出処理部と、前記検出処理部による検出処理結果に基づいて前記対象物の位置を求める対象物位置算出部と、を備える、検出シミュレーションシステムを提供する。
第6の発明は、第4又は第5の発明において、前記視覚センサの3次元モデルは、前記ロボットの3次元モデルの可動部に取り付けられている、データ作成装置を提供する。
本発明に係るデータ作成システムによれば、ロボット及び視覚センサの配置位置に基づき、視覚センサの検出処理に使用されるデータを作成できるので、ロボットと視覚センサを関連付けるキャリブレーション作業を行う必要がなく、知識を必要とせず、作業時間も短縮され、作業者の負担を大きく軽減できる。
本発明に係る検出シミュレーションシステムの一実施形態の機能ブロック図である。 本発明に係る検出シミュレーションシステムにおける処理の一例を示すフローチャートである。 仮想空間内にロボット、視覚センサ、ワーク及びジグを配置した状態の表示例を示す図である。 仮想空間内のロボット及び視覚センサに対し、それぞれロボット座標系及びセンサ座標系を規定した状態を示す図である。 視覚センサによりワークを撮像して得られるコンピュータグラフィックス画像の一例を示す図である。 ワーク位置の補正の例を説明する図である。 視覚センサをロボットの可動部に取り付けた例を示す図である。
図1は、本発明に係る検出シミュレーションシステムの一実施形態の機能ブロック図である。検出シミュレーションシステム10は、仮想空間内に配置された、ロボット、視覚センサ及び対象物の位置に基づいて、視覚センサを用いた検出処理に必要なデータを作成するデータ作成装置12と、上記データに基づいて、対象物の位置の検出処理を行う画像処理装置14とを有する。
データ作成装置12は、ロボット、視覚センサ及び対象物の3次元モデルを仮想空間内に配置する配置部16と、仮想空間内に規定された基準座標系に基づいて、仮想空間内のロボットの配置位置を指定するロボット配置位置指定部18と、基準座標系に基づいて、仮想空間内の視覚センサの配置位置を指定する視覚センサ配置位置指定部20と、ロボット及び視覚センサの指定された配置位置を記憶する配置位置記憶部22と、ロボット及び視覚センサの配置位置に基づいて、ロボットについて規定されたロボット座標系と、視覚センサについて規定されたセンサ座標系との間の位置関係を算出する位置関係算出部24と、上記位置関係を、視覚センサの検出処理に使用されるデータとして記憶する位置関係記憶部26と、基準座標系に基づいて、仮想空間内の対象物の位置を指定する対象物位置指定部28と、視覚センサと対象物との間の位置関係に基づいて、視覚センサにより対象物を撮像した場合に得られる画像に相当する擬似的な画像であるコンピュータグラフィックス画像を生成するCG画像生成部30とを備える。
一方、画像処理装置14は、上記データを用いて上記コンピュータグラフィックス画像に対して検出処理を行う検出処理部32と、検出処理部32による検出処理結果に基づいて対象物の位置を求める対象物位置算出部34とを備える。以下、検出シミュレーションシステム10を用いた処理について、図2及び図3を参照しつつ説明する。
図2は、検出シミュレーションシステム10における処理の一例を示すフローチャートであり、図3は、仮想空間内にロボット、視覚センサ及び対象物の3次元モデルを配置した状態の画面表示例を示す図である。先ず、図3に示すように、仮想空間内に、ロボット36、ロボット36を制御するコントローラ38、カメラ等の視覚センサ40、ワーク42、及びワーク42を保持するジグ44の3次元モデルを配置する(ステップS1)。図示例では、ロボット36は6軸の多関節ロボットであり、基部46と、基部46に対して旋回可能に取り付けられた旋回胴48と、旋回胴48に回転可能に取り付けられた上腕50と、上腕50に回転可能に取り付けられた前腕52と、前腕52に回転可能に取り付けられた手首部54と、手首部54に取り付けられた作業ツール56とを有し、ワーク42に対して機械加工や溶接等の所定の作業を行うシミュレーションができるようになっている。
なお本願明細書では、視覚センサによって撮像される対象物はワーク及びジグの少なくとも一方を意味するが、本実施形態ではジグ44に保持されたワーク42が視覚センサ40によって撮像されるものとする。また本願発明では、仮想空間内にロボット、視覚センサ及び対象物を配置することは必要であるが、作業者が視認できる表示画面等にロボット、視覚センサ及び対象物の全てを描画する必要はない。
次にステップS2において、仮想空間内に規定された基準座標系58に基づいて、仮想区間内におけるロボット36の配置位置を指定し、同様にステップS3において、基準座標系58に基づいて、仮想区間内における視覚センサ40の配置位置を指定する。そして次のステップS4では、ステップS2及びS3においてそれぞれ指定された、ロボット36及び視覚センサ40の配置位置を記憶する。
次に、図4に示すように、ロボット36についてロボット座標系60を規定し、同様に視覚センサ40についてセンサ座標系62を規定した後、ロボット36及び視覚センサ40の配置位置に基づいて、ロボット座標系60とセンサ座標系62との間の位置関係を算出する(ステップS5)。この位置関係は例えば、ロボット座標系60及びセンサ座標系62の一方の原点に対する他方の原点の座標(X,Y,Z)として求めることができる。なお図示例では、基準座標系58、ロボット座標系60及びセンサ座標系62はいずれも直交座標系としているが、これらの座標系の少なくとも1つを極座標系(r,θ,z)とすることも可能である。
次にステップS6において、ステップS5で求めた位置関係を、視覚センサ40を用いた検出処理のために必要なデータとして記憶する。このデータは、コートローラ38内に記憶してもよいし、別途のファイルとして保存してもよい。また視覚センサを用いた検出処理のために必要なデータとして、上記位置関係以外にも、視覚センサの焦点距離、画像サイズ(ピクセル数)、レンズの歪み、画素サイズ、及び画素のアスペクト比等のパラメータを記憶してもよい。
次のステップS7では、基準座標系58に基づいて、仮想区間内における対象物(ワーク42及びジグ44の少なくとも一方)の配置位置を指定する。次にステップS8において、視覚センサ40とワーク42又はジグ44との間の位置関係に基づいて、視覚センサ40によりワーク42又はジグ44を撮像した場合に得られる画像に相当する擬似的な画像である、コンピュータグラフィックス画像(CG)を生成する。図5は、視覚センサ40によりワーク42を撮像して得られるコンピュータグラフィックス画像の一例を示す図である。
最後にステップS9において、視覚センサの検出処理に必要なデータを用いて、ステップS8で生成したコンピュータグラフィックス画像に対して検出処理を行い、その検出処理結果に基づいて、ロボット36に対するワーク42又はジグ44の位置を求める。この処理において、必要に応じ、視覚センサの焦点距離、画像サイズ(ピクセル数)、レンズの歪み、画素サイズ、及び画素のアスペクト比等のパラメータを使用することができる。
図6は、ステップS9の処理の一具体例を示す図である。破線64で示す基準ワーク撮像位置に対し、仮想空間内のある条件にて視覚センサ40にてワーク42を撮像したときのワーク撮像位置が参照符号66で示される位置であった場合、撮像位置66と基準位置64との差(変位量)68が、この条件でのワーク42の位置補正量となり、当該位置補正量を用いて視覚センサ40に対するワーク42の位置を求めることができる。このようにして求めた視覚センサ40とワーク42との位置関係と、記憶されたロボット36(ロボット座標系60)と視覚センサ40(センサ座標系62)との位置関係から、ロボット36に対するワーク42の位置を求めることができ、ワーク42に対するロボット36の作業の正確なオフラインシミュレーションを行うことが可能となる。
本発明では、仮想空間内でロボット(ロボット座標系)と視覚センサ(センサ座標系)との位置関係を算出して記憶しておくことにより、ロボットと視覚センサとを関連付けるキャリブレーションが不要となる。従って作業者は特殊な知識を必要とせず、短時間でシミュレーションを行うことができ、作業者の負担が大幅に軽減される。
上述の実施形態では、ロボット36と視覚センサ40とは別個に配置されており、ロボット36の動作によって視覚センサ40の位置・姿勢は変化しないが、図7に示す変形例のように、視覚センサ40をロボット36前腕や手首部等の可動部、又は可動部のリンクに取り付ける(固定する)こともできる。この場合でも、ロボット36の各軸の位置や回転角度に基づいて視覚センサ40の位置・姿勢を求めることができるので、上述の実施形態と同様に、ロボット(ロボット座標系)と視覚センサ(センサ座標系)との位置関係を算出・記憶することができる。
10 検出シミュレーションシステム
12 データ作成装置
14 画像処理装置
16 配置部
18 ロボット配置位置指定部
20 視覚センサ配置位置指定部
22 配置位置記憶部
24 位置関係算出部
26 位置関係記憶部
28 対象物位置指定部
30 CG画像生成部
32 検出処理部
34 対象物位置算出部
36 ロボット
40 視覚センサ
42 ワーク
44 ジグ
58 基準座標系
60 ロボット座標系
62 センサ座標系

Claims (6)

  1. 仮想空間内に配置された、ロボット、視覚センサ及び対象物の3次元モデルの位置に基づいて、前記視覚センサを用いた検出処理に使用されるデータを作成するデータ作成装置であって、
    前記仮想空間内に規定された基準座標系に基づいて、前記仮想空間内の前記ロボットの配置位置を指定するロボット配置位置指定部と、
    前記基準座標系に基づいて、前記仮想空間内の前記視覚センサの配置位置を指定する視覚センサ配置位置指定部と、
    前記ロボット及び前記視覚センサの指定された配置位置を記憶する配置位置記憶部と、
    前記ロボットと前記視覚センサとを関連付けるキャリブレーションを行うことなく、前記ロボット及び前記視覚センサの配置位置に基づいて、前記ロボットについて規定されたロボット座標系と、前記視覚センサについて規定されたセンサ座標系との間の位置関係を算出する位置関係算出部と、
    前記位置関係を、前記視覚センサの検出処理に使用されるデータとして記憶する位置関係記憶部と、を備えることを特徴とする、データ作成装置。
  2. 前記基準座標系に基づいて、前記仮想空間内の前記対象物の位置を指定する対象物位置指定部と、
    前記視覚センサと前記対象物との間の位置関係に基づいて、前記視覚センサにより前記対象物を撮像した場合に得られる画像に相当する擬似的な画像であるコンピュータグラフィックス画像を生成するCG画像生成部と、をさらに有する、請求項1に記載のデータ作成装置。
  3. 前記視覚センサの3次元モデルは、前記ロボットの3次元モデルの可動部に取り付けられている、請求項1又は2に記載のデータ作成装置。
  4. 請求項2に記載のデータ作成装置と、
    前記視覚センサの検出処理に使用されるデータを用いて、前記対象物の位置の検出処理を行う画像処理装置と、を有する、検出シミュレーションシステム。
  5. 前記画像処理装置は、
    前記データを用いて前記コンピュータグラフィックス画像に対して検出処理を行う検出処理部と、
    前記検出処理部による検出処理結果に基づいて前記対象物の位置を求める対象物位置算出部と、を備える、請求項4に記載の検出シミュレーションシステム。
  6. 前記視覚センサの3次元モデルは、前記ロボットの3次元モデルの可動部に取り付けられている、請求項4又は5に記載の検出シミュレーションシステム。
JP2014010363A 2014-01-23 2014-01-23 視覚センサのデータ作成システム及び検出シミュレーションシステム Active JP5815761B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014010363A JP5815761B2 (ja) 2014-01-23 2014-01-23 視覚センサのデータ作成システム及び検出シミュレーションシステム
DE102015000589.8A DE102015000589B4 (de) 2014-01-23 2015-01-16 Datenerzeugungsvorrichtung für einen visuellen Sensor und ein Erfassungssimulationssystem
CN201510030467.5A CN104802173B (zh) 2014-01-23 2015-01-21 视觉传感器的数据生成装置和检测模拟系统
US14/602,816 US9519736B2 (en) 2014-01-23 2015-01-22 Data generation device for vision sensor and detection simulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014010363A JP5815761B2 (ja) 2014-01-23 2014-01-23 視覚センサのデータ作成システム及び検出シミュレーションシステム

Publications (2)

Publication Number Publication Date
JP2015136770A JP2015136770A (ja) 2015-07-30
JP5815761B2 true JP5815761B2 (ja) 2015-11-17

Family

ID=53544001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014010363A Active JP5815761B2 (ja) 2014-01-23 2014-01-23 視覚センサのデータ作成システム及び検出シミュレーションシステム

Country Status (4)

Country Link
US (1) US9519736B2 (ja)
JP (1) JP5815761B2 (ja)
CN (1) CN104802173B (ja)
DE (1) DE102015000589B4 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9227323B1 (en) * 2013-03-15 2016-01-05 Google Inc. Methods and systems for recognizing machine-readable information on three-dimensional objects
JP6294248B2 (ja) * 2015-01-28 2018-03-14 ファナック株式会社 ロボットを用いたキサゲ加工装置及びキサゲ加工方法
JP6117853B2 (ja) * 2015-05-13 2017-04-19 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
US10835333B2 (en) * 2015-08-25 2020-11-17 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
JP6298026B2 (ja) * 2015-09-15 2018-03-20 ファナック株式会社 多関節ロボットのたわみを計測するたわみ計測システム
US11054802B2 (en) * 2015-10-21 2021-07-06 Mitsubishi Electric Research Laboratories, Inc. System and method for performing operations of numerical control machines
JP6551184B2 (ja) 2015-11-18 2019-07-31 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
JP6540472B2 (ja) 2015-11-18 2019-07-10 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
CN106527239B (zh) * 2016-12-30 2018-12-21 华南智能机器人创新研究院 一种多机器人协同操作模式的方法及系统
JP6438510B2 (ja) * 2017-03-09 2018-12-12 ファナック株式会社 治具設計支援装置及びロボットシミュレーション装置
JP7124509B2 (ja) * 2018-07-19 2022-08-24 オムロン株式会社 シミュレーション装置、シミュレーションプログラムおよびシミュレーション方法
JP7059968B2 (ja) * 2019-03-01 2022-04-26 オムロン株式会社 制御装置および位置合わせ装置
DE102019106458A1 (de) * 2019-03-13 2020-09-17 ese-robotics GmbH Verfahren zur Ansteuerung eines Industrieroboters
JP7326911B2 (ja) * 2019-06-20 2023-08-16 オムロン株式会社 制御システムおよび制御方法
JP7376268B2 (ja) 2019-07-22 2023-11-08 ファナック株式会社 三次元データ生成装置及びロボット制御システム
JP7264763B2 (ja) * 2019-08-07 2023-04-25 株式会社日立製作所 キャリブレーション装置
US12090669B2 (en) * 2020-03-30 2024-09-17 Fanuc Corporation Off-line simulation system
JP7591938B2 (ja) 2021-02-10 2024-11-29 株式会社キーエンス 制御装置
TW202234184A (zh) * 2021-02-25 2022-09-01 日商發那科股份有限公司 使用從視覺感測器的輸出得到之三維位置資訊的模擬裝置
KR102781047B1 (ko) * 2022-12-05 2025-03-18 주식회사 카카오모빌리티 센서 캘리브레이션을 위한 모바일 타겟 로봇을 제어하는 장치 및 방법

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0731533B2 (ja) * 1986-09-03 1995-04-10 日産自動車株式会社 三次元座標変換装置
JP3138080B2 (ja) * 1992-10-22 2001-02-26 株式会社豊田中央研究所 視覚センサの自動キャリブレーション装置
JPH06175712A (ja) * 1992-12-02 1994-06-24 Fujitsu Ltd 視覚認識ロボットの自動キャリブレーション方法
JP3144233B2 (ja) * 1994-09-12 2001-03-12 株式会社明電舎 ロボットとカメラの自動調整方法
JP3999308B2 (ja) * 1997-06-06 2007-10-31 松下電器産業株式会社 ロボットによる装着方法
JP2001216015A (ja) * 2000-01-31 2001-08-10 Iwate Prefecture ロボットの動作教示装置
AU2003239171A1 (en) * 2002-01-31 2003-09-02 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
JP3733364B2 (ja) 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
JP4266946B2 (ja) * 2005-03-17 2009-05-27 ファナック株式会社 オフライン教示装置
JP2006272537A (ja) * 2005-03-30 2006-10-12 Advanced Telecommunication Research Institute International ロボットシミュレータおよびシミュレーションプログラム
JP2006289531A (ja) * 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
JP4757142B2 (ja) * 2006-08-10 2011-08-24 キヤノン株式会社 撮影環境校正方法及び情報処理装置
JP4967858B2 (ja) * 2007-06-29 2012-07-04 日産自動車株式会社 カメラとロボット間のキャリブレーション方法及びその装置
JP4347386B2 (ja) * 2008-01-23 2009-10-21 ファナック株式会社 加工用ロボットプラグラムの作成装置
JP5371927B2 (ja) * 2010-10-27 2013-12-18 三菱電機株式会社 座標系校正方法及びロボットシステム
JP5949242B2 (ja) * 2012-07-11 2016-07-06 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP5670416B2 (ja) * 2012-12-28 2015-02-18 ファナック株式会社 ロボットシステム表示装置

Also Published As

Publication number Publication date
US9519736B2 (en) 2016-12-13
JP2015136770A (ja) 2015-07-30
DE102015000589B4 (de) 2016-07-14
US20150202776A1 (en) 2015-07-23
DE102015000589A1 (de) 2015-08-06
CN104802173A (zh) 2015-07-29
CN104802173B (zh) 2016-08-31

Similar Documents

Publication Publication Date Title
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP5365379B2 (ja) ロボットシステム及びロボットシステムのキャリブレーション方法
CN108994876B (zh) 示教位置修正装置和示教位置修正方法
JP4021413B2 (ja) 計測装置
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
JP3733364B2 (ja) 教示位置修正方法
JP6812095B2 (ja) 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
JP6869159B2 (ja) ロボットシステム
CN104924309A (zh) 机器人系统、机器人系统的校准方法及位置修正方法
JP2020011339A5 (ja) ロボットシステムの制御方法、制御プログラム、記録媒体、制御装置、ロボットシステム、物品の製造方法
JP6912529B2 (ja) 視覚誘導ロボットアームの補正方法
CN113015604B (zh) 机器人控制系统及机器人控制方法
JP2005300230A (ja) 計測装置
JPWO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN106003020A (zh) 机器人、机器人控制装置以及机器人系统
JP7502003B2 (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
JP2019069493A (ja) ロボットシステム
WO2017133756A1 (en) Robot system calibration
CN117754589A (zh) 标定方法、标定装置、计算机设备和计算机可读存储介质
JP6410411B2 (ja) パターンマッチング装置及びパターンマッチング方法
JP7477633B2 (ja) ロボットシステム
CN116472144A (zh) 图像处理系统以及图像处理方法
JP7660686B2 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150924

R150 Certificate of patent or registration of utility model

Ref document number: 5815761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150