JP2014128845A - ロボットシステム表示装置 - Google Patents

ロボットシステム表示装置 Download PDF

Info

Publication number
JP2014128845A
JP2014128845A JP2012287342A JP2012287342A JP2014128845A JP 2014128845 A JP2014128845 A JP 2014128845A JP 2012287342 A JP2012287342 A JP 2012287342A JP 2012287342 A JP2012287342 A JP 2012287342A JP 2014128845 A JP2014128845 A JP 2014128845A
Authority
JP
Japan
Prior art keywords
robot
visual sensor
robot system
visual
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012287342A
Other languages
English (en)
Other versions
JP5670416B2 (ja
Inventor
Yuta Namiki
勇太 並木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2012287342A priority Critical patent/JP5670416B2/ja
Priority to US14/104,511 priority patent/US9199379B2/en
Priority to DE102013021917.5A priority patent/DE102013021917B4/de
Priority to CN201310741622.5A priority patent/CN103909525B/zh
Publication of JP2014128845A publication Critical patent/JP2014128845A/ja
Application granted granted Critical
Publication of JP5670416B2 publication Critical patent/JP5670416B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

【課題】視覚センサのキャリブレーションデータの誤りを容易に発見可能にするロボットシステム表示装置を提供する。
【解決手段】視覚センサによって対象物の位置を計測することによって、所望の処理を実行するロボットシステムにおいて、該ロボットシステムの構成要素をグラフィカルに表示するロボットシステム表示装置が提供される。ロボットシステム表示装置は、視覚センサのキャリブレーションデータと、予め記憶された視覚センサの形状情報とに基づいて、ロボットシステムの他の構成要素に対する視覚センサの相対的配置を取得するとともに、該相対的配置に基づいて、視覚センサを仮想空間内においてグラフィカルに表示する。
【選択図】図1

Description

本発明は、ロボット、周辺機器及び視覚センサの互いの相対的配置関係を確認するためにロボットシステムをグラフィカルに表示するロボットシステム表示装置に関する。
視覚センサによって検出される対象物の位置情報に基づいて、ロボットが対象物に対してハンドリング又は加工等の作業を行うように構成されたロボットシステムが公知である。視覚センサは、ロボットのハンド付近に取付けられたり、架台等の固定部に取付けられたりして使用されるが、いずれの場合においても、視覚センサとロボットとの間の相対的配置関係を特定する必要がある。そのために、ロボットの動作制御の基準となるロボット座標系と、視覚センサによる計測処理の基準となる視覚センサ座標系との間の関係を明らかにしておく必要がある。このような互いに異なる座標系どうしを関連付けるための処理は視覚センサのキャリブレーションと一般に称されており、キャリブレーションの結果得られる関連付けの情報はキャリブレーションデータと称される。
特許文献1には、ロボットの可動部に取付けられたセンサのキャリブレーション処理の例が開示されている。この公知技術においては、センサの移動前後においてセンサのキャリブレーションを実行するために、センサの移動前のキャリブレーションデータと、センサの移動量とに基づいて、センサの移動後のキャリブレーションデータが計算される。
特許文献2には、ロボットのアームに取付けられていて予め定められたパターンが形成されたパターン板を利用して、視覚センサのキャリブレーションを実行する技術が開示されている。この公知技術においては、パターン板の取付寸法等の情報を予め設定しておく必要がある、したがって、設定された情報が誤っていた場合には、不正確なキャリブレーションデータが得られることになる。この公知技術に限らず、他の方法を採用した場合でも、使用される構成要素の寸法等の情報を設定する必要があり、設定情報が正確でないと、正確なキャリブレーションは実行されない。
特許文献3には、視覚センサ及びロボットを備えるロボットシステムのためのシミュレーション装置が開示されている。この公知技術に係るシミュレーション装置は、オフラインで作成される動作プログラムを評価するために使用されるが、視覚センサの配置情報は、シミュレーションされるロボットシステムの設定値である。したがって、このシミュレーション装置によって視覚センサのキャリブレーションデータの誤りを発見することは期待できない。
特開平5−241626号公報 特開平4−35885号公報 特開2005−135278号公報
前述したように、従来の技術では、視覚センサのキャリブレーションデータに誤りがあっても発見するのが困難であった。そこで、視覚センサのキャリブレーションデータの誤りを容易に発見可能にするロボットシステム表示装置が望まれている。
本願に係る1番目の発明によれば、ロボットシステムの構成要素の形状情報及び配置情報を記憶する記憶部と、前記記憶部によって記憶される前記構成要素の前記形状情報及び前記配置情報に基づいて、前記ロボットシステムの前記構成要素をグラフィカルに表示する表示部と、を備えるロボットシステム表示装置であって、前記ロボットシステムは、ロボット及び視覚センサを少なくとも備えており、当該ロボットシステム表示装置は、前記ロボットの動作制御の基準となるロボット座標系と、前記視覚センサによる計測処理の基準となる視覚センサ座標系とを互いに関連付けるキャリブレーションデータを取得する第1の取得部と、前記第1の取得部によって取得される前記キャリブレーションデータと、前記記憶部によって記憶される前記視覚センサの形状情報とに基づいて、前記視覚センサの配置情報を取得する第2の取得部と、をさらに備えており、前記表示部は、前記記憶部によって記憶される前記視覚センサの形状情報及び前記第2の取得部によって取得される前記視覚センサの配置情報に基づいて、前記視覚センサを表示するように構成される、ロボットシステム表示装置が提供される。
本願に係る2番目の発明によれば、1番目の発明において、前記視覚センサは、前記ロボットのアームの動作に連動して該アームに対する相対的配置関係を維持するように該アームに固定されており、前記表示部は、前記アームと前記視覚センサとの間の相対的配置関係に基づいて、前記視覚センサをグラフィカルに表示するように構成される、ロボットシステム表示装置が提供される。
本願に係る3番目の発明によれば、1番目又は2番目の発明において、前記ロボットシステムは視覚ターゲット治具をさらに備えており、前記第1の取得部は、前記ロボット座標系と前記視覚センサ座標系と前記視覚ターゲット治具とを互いに関連付けるキャリブレーションデータを取得するように構成されており、当該ロボットシステム表示装置は、前記表示部は、前記キャリブレーションデータに基づいて、前記視覚ターゲット治具の配置情報を取得する第3の取得部をさらに備え、前記表示部は、前記記憶部によって記憶される前記視覚ターゲット治具の形状情報及び前記第3の取得部によって取得される前記視覚ターゲット治具の配置情報に基づいて、前記視覚ターゲット治具をグラフィカルに表示するように構成される、ロボットシステム表示装置が提供される。
本願に係る4番目の発明によれば、3番目の発明において、前記視覚ターゲット治具は、前記ロボットのアームの動作に連動して該アームに対する相対的配置関係を維持するように該アームに固定されており、前記表示部は、前記アームと前記視覚ターゲット治具との間の相対的配置関係に基づいて、前記視覚ターゲット治具をグラフィカルに表示するように構成される、ロボットシステム表示装置が提供される。
本願に係る5番目の発明によれば、1番目から4番目のいずれかの発明において、前記記憶部によって記憶される前記ロボットシステムの前記構成要素の形状情報が3次元形状情報である、ロボットシステム表示装置が提供される。
本願に係る6番目の発明によれば、1番目から5番目のいずれかの発明において、当該ロボットシステム表示装置が前記視覚センサを制御する視覚センサ制御装置を備える、ロボットシステム表示装置が提供される。
本願に係る7番目の発明によれば、1番目から6番目のいずれかの発明において、当該ロボットシステム表示装置が前記ロボットを制御するロボット制御装置を備える、ロボットシステム表示装置が提供される。
上記構成を備えるロボットシステム表示装置は、キャリブレーションデータに誤りが含まれている場合、視覚センサを実際とは異なる位置又は姿勢でグラフィカルに表示する。それにより、操作者は、キャリブレーショデータが誤っているか否かを視覚的に容易に確認できるようになる。
第1の実施形態に係るロボットシステム及びロボットシステムの表示装置の構成を示す図である。 第1の実施形態に係るロボットシステム及びロボットシステムの表示装置の機能ブロック図である。 第2の実施形態に係るロボットシステム及びロボットシステムの表示装置の構成を示す図である。 第3の実施形態に係るロボットシステム及びロボットシステムの表示装置の構成を示す図である。 第3の実施形態において使用される視覚ターゲット治具の構成例を示す図である。 第3の実施形態に係るロボットシステム及びロボットシステムの表示装置の機能ブロック図である。 第4の実施形態に係るロボットシステム及びロボットシステムの表示装置の構成を示す図である。 第1の変形例に係るロボットシステム及びロボットシステムの表示装置の機能ブロック図である。 第2の変形例に係るロボットシステム及びロボットシステムの表示装置の機能ブロック図である。
以下、添付図面を参照して本発明の実施形態を説明する。図示される実施形態の各構成要素は、本発明の理解を助けるためにその縮尺が実用的な形態から変更されている場合があることに留意されたい。
図1は、第1の実施形態に係るロボットシステム10及びロボットシステム10の表示装置20の構成を示す図である。ロボットシステム10は、ロボット12と、ロボット12を制御するロボット制御装置14と、ロボット制御装置14を操作するためのロボット操作盤16と、対象物30と、対象物30が載置されるテーブル32と、対象物30の画像を取得するための視覚センサ40と、視覚センサ40を制御する視覚センサ制御装置42と、視覚センサ制御装置42を操作するための視覚センサ操作盤44と、視覚センサ40を所定位置に固定するための視覚センサ架台46と、を備えている。
テーブル32に載置された対象物30は位置決めされておらず、対象物30の位置は不明である。対象物30は、視覚センサ40のカメラ等の撮像素子によって撮像される。そして、対象物30の画像を視覚センサ制御装置42によって画像処理することによって、対象物30の位置が計測される。ロボット12の動作は、視覚センサ制御装置42によって計測された対象物30の位置情報に基づいて制御される。それにより、ロボット12は、対象物30の位置に応じて対象物30に対して必要な作業を実行できるようになっている。
ロボット12は、公知の任意のロボットマニピュレータ(以下、単に「ロボット」と称する。)であり、特定の構成を有するロボットに限定されない。図示された実施形態において、ロボット12のアーム先端部には、対象物30を把持するためのハンド18が備え付けられているものの、溶接及び塗装その他の用途に応じて種々のエンドエフェクタが採用され得る。
視覚センサ40は、例えば工業用CCDカメラ等の撮像手段を備える公知のセンサである。視覚センサ40は、対象物30の画像を取得するためにテーブル32に対して所定の位置関係に配置されるように視覚センサ架台46に取付けられている。
図2は、図1の実施形態に係るロボットシステム10及びロボットシステム10の表示装置20の機能ブロック図である。ロボット制御装置14は、ロボット制御部50を含むデジタルコンピュータである。ロボット制御部50は、ロボット12の動作を制御する指令を作成し、ロボット12に送出する。ロボット操作盤16は、通信ケーブルを介してロボット制御装置14に接続されており、ロボット12を操作するのに使用される。ロボット操作盤16は、例えばボタン、キーボード、マウス、ダイヤル、タッチパネル等を備えるユーザインタフェースを有する。
視覚センサ制御装置42は、画像処理部52と、キャリブレーションデータ記憶部54と、を含むデジタルコンピュータである。画像処理部52及びキャリブレーションデータ記憶部54は、バスを介して互いに接続されている。視覚センサ操作盤44は、視覚センサ制御装置42に通信ケーブルを介して接続されており、視覚センサ40によって対象物30の位置を計測する際に必要な種々の条件を設定するのに使用される。画像処理部52には、視覚センサ40が接続されている。画像処理部52は、視覚センサ40によって取得される画像データを処理して、画像に含まれる対象物30の位置を計算する。キャリブレーションデータ記憶部54は、キャリブレーションの結果として得られるキャリブレーションデータ及びキャリブレーションに関連するデータを記憶する。
ロボット制御装置14及び視覚センサ制御装置42は、通信ケーブルで互いに接続されており、互いにデータの送受信が行われる。通信方法は、RS−232Cの形態によるものであってもよいし、LANの形態によるものでもよい。または、通信ケーブルを使用せずに無線LANの形態によるものであってもよい。ロボット制御装置14と視覚センサ制御装置42との間において送受信されるデータには、例えば視覚センサ制御装置42によって計測された対象物30の位置情報、ロボット制御装置14によって取得されるロボット12の現在の位置情報等が含まれる。
表示装置20は、形状配置情報記憶部22と、ロボットシステム10の構成要素をグラフィカルに表示する液晶ディスプレイ等の表示部24と、キャリブレーションデータ記憶部54からキャリブレーションデータを読出して取得するキャリブレーションデータ取得部26と、視覚センサ40の配置情報を取得する視覚センサ配置情報取得部28と、を含むデジタルコンピュータ、例えばパーソナルコンピュータ又はワークステーションである。表示装置20は、視覚センサ制御装置42及びロボット制御装置14から通信又は記録メディアを介して必要な情報を取得できるようになっている。例えば、視覚センサ制御装置42のキャリブレーションデータ記憶部54に記憶されているキャリブレーションデータ或いはロボット制御装置14によって取得されるロボット12の現在のアーム先端部の位置情報又はロボット12の各可動軸の角度情報が表示装置20によって取得される。
形状配置情報記憶部22には、ロボットシステム10の構成要素の形状情報及び配置情報が記憶される。ロボットシステム10の構成要素には、例えばロボット12、視覚センサ40及び視覚センサ架台46等が含まれる。形状情報は、CADデータのように構成要素の精緻な形状データを含むものでもよいし、立方体等の簡易モデルによって構成要素の位置及び姿勢を概略的に表現するものでもよい。各構成要素の形状情報は任意の形態で表され得る。形状情報は、2次元形状情報又は3次元形状情報のいずれでもよい。例えば、構成要素に対して基準となる基準座標系が定義され、構成要素の形状を特定する頂点、線、面等が基準座標系において記述される。その場合、ワールド座標系から見た各構成要素の基準座標系の位置及び姿勢が各構成要素の配置情報として利用され得る。
ロボット12についても他の構成要素と同様に、基準座標系が定義され、ロボット12の形状情報はその基準座標系において記述される。なお、ロボット12は、複数の可動軸を通常有しているので、ロボット12の基準座標系は、ロボット12の基端側、すなわち固定部を基準に定義されるのが一般的である。表示装置20によって表示されるロボット12の形状(姿勢)は、その時点における各可動軸の角度に応じて定まる。
ロボット12の形状を記述するための基準座標系として、ロボット12の動作制御の基準となるロボット座標系と同一のものが使用されてもよい。以下、説明を簡単にするために、これら2つの座標系が同一である場合について説明する。この場合、ロボット12の配置情報は、ワールド座標系に対するロボット座標系の相対的位置として求められる。単一のロボット12のみを備えるロボットシステム10においては、ロボット座標系をワールド座標系として定義してもよい。この場合、ロボット12の位置は、ワールド座標系の原点位置に対応する。
各構成要素の形状情報及び配置情報は、CADシステム又はオフラインプログラミングシステムを利用して予め作成されたものを表示装置20で読出すことによって得られてもよいし、表示装置20によって直接作成されてもよい。いずれの場合においても、得られた各構成要素の形状情報及び配置情報は、表示装置20の形状配置情報記憶部22に記憶される。
表示装置20の表示部24は、形状配置情報記憶部22に記憶されているロボットシステム10の構成要素の形状情報及び各構成要素の配置情報に基づいて、例えばロボット12、ハンド18、テーブル32、対象物30及び視覚センサ架台46等のロボットシステム10の構成要素を仮想の3次元空間内にグラフィカルに表示する。
なお、形状配置情報記憶部22には、視覚センサ40の形状情報が記憶されているものの、視覚センサ40の配置情報は記憶されていない。本実施形態において、視覚センサ40の配置情報は、後述する方法により視覚センサ40のキャリブレーションデータに基づいて算出される。したがって、視覚センサ40のキャリブレーションが完了するまでは、表示部24によって表示される画像に視覚センサ40は含まれない。
視覚センサ制御装置42のキャリブレーションデータ記憶部54には、ロボット12の動作制御の基準となるロボット座標系と、視覚センサ40による計測処理の基準となる視覚センサ座標系とを互いに関連付けるキャリブレーションデータが記憶される。
キャリブレーションデータの形式及びキャリブレーションデータを取得する具体的な態様については、種々の技術が提案されており、本願発明との関係では特定の形態に何ら限定されない。カメラのキャリブレーション方法については、例えば「Roger Y. Tsai, “An efficient and accurate camera calibration technique for 3d machine vision”, Proc. Computer Vision and Pattern Recognition ’86, pp.368-374, 1986」に記載されている。
一般的に、視覚センサのキャリブレーションデータには、外部パラメータ及び内部パラメータが含まれる。外部パラメータは、視覚センサの物理的位置及び姿勢に関する情報であり、例えば、ロボット座標系に対する視覚センサ座標系の相対的配置情報として表すことができる。一方、内部パラメータは、レンズの焦点距離、レンズ歪、受光素子の寸法等の視覚センサの光学系の条件に関する情報である。
視覚センサにおいても、他の構成要素と同様に、視覚センサの形状を記述するための基準となる基準座標系が定義されている。しかしながら、視覚センサによる計測処理の基準となる視覚センサ座標系は、視覚センサの形状を表すための基準座標系と同一であってもよい。その場合、キャリブレーションデータに含まれる外部パラメータは、視覚センサの配置情報として利用される。一方、視覚センサの基準座標系及び視覚センサ座標系が同一でない場合においては、視覚センサに対して定義される基準座標系と視覚センサ座標系との間の相対的関係は既に分かっているので、キャリブレーションデータに含まれる外部パラメータと、2つの座標系間の相対的関係に基づいて、視覚センサの配置情報が算出され得る。視覚センサの基準座標系と視覚センサ座標系との間の相対的関係は、視覚センサの基準座標系における視覚センサ座標系の位置及び姿勢として表現でき、視覚センサの形状情報の一部として形状配置情報記憶部22に記憶される。
このようにして求められる視覚センサ40の配置情報と、形状配置情報記憶部22に予め記憶されている視覚センサ40の形状情報とに基づいて、表示装置20の表示部24は、視覚センサ40を仮想の3次元空間内にグラフィカルに表示する。
視覚センサのキャリブレーションが適切に実行されている場合、表示部に表示される視覚センサは、他の構成要素、例えば視覚センサ架台に対して正しい位置に表示される。それに対し、視覚センサのキャリブレーションが適切に行われていない場合には、視覚センサは実際とは異なった箇所に表示される。このように本実施形態に係るロボットシステムの表示装置によれば、表示部に表示されるグラフィカルな情報に基づいて、操作者は、視覚センサのキャリブレーションが適切に実行されたか否かを容易に確認できる。また、特許文献3に開示されるようなオフラインシミュレーション装置を利用する場合において、本実施形態に係る表示装置によって適切であることが確認できたキャリブレーションデータを読出して使用することによって、信頼性の高いシミュレーション結果が得られるようになる。
続いて、前述した実施形態とは異なる本発明の他の実施形態について説明する。以下の説明において、既に述べた内容と重複する事項については説明を適宜省略する。また、同一又は対応する構成要素には同一の参照符号が使用される。
図3は、第2の実施形態に係るロボットシステム60及びロボットシステム60の表示装置20の構成を示す図である。図3に示されるロボットシステム60の構成は、第1の実施形態に係るロボットシステム10の構成と概ね同一であるが、視覚センサ40が視覚センサ架台46ではなく、腕木62を介してロボット12のアーム先端部に取付けられている点において相違する。すなわち、視覚センサ40は、ロボット12を動作させたときに、ロボット12のアームの動作に連動するようになっている。それにより、視覚センサ40とロボット12のアーム先端部との間の相対的位置関係が維持される。
本実施形態において、視覚センサ40のキャリブレーションは、ロボット12を任意の位置において静止させた状態で実行される。説明の便宜上、キャリブレーションが実行されるときのロボット12のロボット座標系におけるアーム先端部の位置をQ1とする。Q1は4×4の同次変換行列であり、ロボット座標系において記述されたものである。
ロボット12が視覚センサ40のキャリブレーションを実行した後も静止したままであれば、第1の実施形態と同様の方法で視覚センサ40の配置情報が得られる。しかしながら、本実施形態においてはロボット12が動作するのに従って視覚センサ40の位置及び姿勢も変化する。したがって、視覚センサ40の位置及び姿勢が変化した後における視覚センサ40の配置情報を再度取得する必要がある。
そこで、本実施形態においては、キャリブレーションが実行されたときのアーム先端部の位置Q1がキャリブレーションデータ記憶部54にキャリブレーションデータの一部として記憶される。アーム先端部の位置Q1において求められたキャリブレーションデータから求められる視覚センサ40の配置情報をP1、現在のロボット12のアーム先端部の位置をQ2、現在の視覚センサ40の配置情報をP2とすると、アーム先端部の移動量と視覚センサ40の移動量とは等しいので、Q1、Q2、P1及びP2の間には、以下の式(1)の関係が成立する。なお位置Q2、P1及びP2は、Q1と同様に4×4の同次変換行列であって、ロボット座標系において記述されたものである。
Q2・Q1-1=P2・P1-1 (1)
ここで、Q1及びP1はキャリブレーションデータから求められる。また、現在のロボット12のアーム先端部の位置Q2は、ロボット制御装置14から取得され得る。したがって、現在の視覚センサ40の配置情報P2は以下の式(2)に従って求められる。
P2=Q2・Q1-1・P1 (2)
そして、式(2)によって求められる現在の視覚センサ40の配置情報Q2に基づいて、ロボットシステム表示装置20の表示部24に視覚センサ40を再表示する。
前述した例は、視覚センサのキャリブレーションがロボット座標系に対して実行される場合、すなわちキャリブレーションデータの外部パラメータがロボット座標系に対する視覚センサ座標系の相対的位置を表す場合である。しかしながら、視覚センサがロボットのアーム先端部に取付けられる場合には、ロボットのアーム先端部に固定された座標系(以下、「手先座標系」と称する)に対して視覚センサのキャリブレーションが実行されてもよい。この場合、キャリブレーションデータの外部パラメータは、手先座標系と視覚センサ座標系とを互いに関連付けるデータを表す。そして、現在の視覚センサの配置情報は、次のようにして求められる。
手先座標系で表現された視覚センサ40の配置情報をPtとする。PtはQ2と同様に4×4の同時変換行列である。Ptはキャリブレーションデータ記憶部54に記憶されているキャリブレーションデータから求められる。また、現在のロボット12のアーム先端部の位置Q2は、ロボット制御装置14から取得され得る。したがって、現在のワールド座標系、例えばロボット座標系から見た視覚センサ40の配置情報P2は、以下の式(3)によって求められる。
P2=Q2・Pt (3)
図4は、第3の実施形態に係るロボットシステム70及びロボットシステム70の表示装置20の構成を示す図である。本実施形態では、視覚ターゲット治具72を用いて視覚センサ40がキャリブレーションされる。そして、表示装置20の表示部24には、視覚ターゲット治具72がさらに表示される。
視覚ターゲット治具72を用いた視覚センサ40のキャリブレーション方法は、特許文献2に開示されるように公知である。したがって、キャリブレーション方法自体の詳細な説明は本明細書においては省略する。
図5は、本実施形態において使用される視覚ターゲット治具72の構成例を示す図である。視覚ターゲット治具72には、視覚センサ40で認識可能なパターンとして、図5に示されるようなドットパターン76が設けられている。ドットパターン76は、格子状に配置された大小のドット76a,76b(円)から構成されている。寸法が大きい4つのドット76aはL字状に配置されており、視覚ターゲット治具72の座標系(以下、「視覚ターゲット治具座標系」と称する。)を表している。具体的には、視覚ターゲット治具72の1つの角部に位置する寸法が大きいドット76aの中心が視覚ターゲット治具座標系の原点であり、寸法が大きい3つのドット76aが配列される方向がX軸方向を表し、寸法が大きい2つのドット76aが配列される方向がY軸方向を表し、視覚ターゲット治具72の表面の鉛直方向上側がZ軸方向を表している。
視覚ターゲット治具72の形状情報は、他の構成要素と同様に、視覚ターゲット治具72に対して付与される基準座標系において記述される情報であり、表示装置20の形状配置情報記憶部22において記憶される。一方、視覚ターゲット治具72の配置情報は、形状配置情報記憶部22には記憶されておらず、本願発明によれば、視覚センサ40のキャリブレーションデータに基づいて、後述する方法により計算される。したがって、視覚センサ40のキャリブレーションが完了するまでは、表示装置20の表示部24によって表示される画像に視覚ターゲット治具72は含まれない。
視覚ターゲット治具72を用いて視覚センサ40をキャリブレーションするには、使用される視覚ターゲット治具72に形成されたドットパターン76の寸法情報、例えばドット76a,76bの間隔、及び視覚ターゲット治具72の設置情報、すなわち視覚ターゲット治具72の位置及び姿勢を予め設定しておく必要がある。
ドットパターン76の寸法情報については、視覚ターゲット治具72にドットパターン76を形成する際に使用される設計図面等から既知である。ドットパターン76の寸法情報は、キャリブレーションデータの一部として、キャリブレーションデータ記憶部54に記憶される。
本実施形態では、視覚ターゲット治具72は、テーブル32の上に、ドットパターン76が視覚センサ40に対して向けられるように固定される。視覚ターゲット治具72の設置情報は、ロボット12の動作制御の基準となるロボット座標系に対する視覚ターゲット治具座標系の相対的位置として表される。設定された視覚ターゲット治具72の設置情報は、キャリブレーションデータの一部として、キャリブレーションデータ記憶部54に記憶される。
視覚ターゲット治具72の形状を表す基準となる視覚ターゲット治具72の基準座標系と、視覚ターゲット治具座標系との間の相対位置関係は既知であり、視覚ターゲット治具72の形状情報の一部として形状配置情報記憶部22に記憶される。したがって、キャリブレーションデータ記憶部54に記憶された視覚ターゲット治具72の設置情報と、視覚ターゲット治具72の基準座標系及び視覚ターゲット治具座標系の相対位置関係とに基づいて、視覚ターゲット治具72の配置情報、すなわちロボット座標系における視覚ターゲット治具72の位置情報が計算される。
そして、ロボットシステム70の表示装置20は、得られた視覚ターゲット治具72の配置情報と、形状配置情報記憶部22に記憶されている視覚ターゲット治具72の形状情報とに基づいて、視覚ターゲット治具72を仮想の3次元空間内にグラフィカルに表示する。
図6は、第3の実施形態に係るロボットシステム70及びロボットシステムの表示装置20の機能ブロック図である。本実施形態における機能ブロック図は、第1の実施形態のものと概ね同一であるものの、表示装置20が視覚ターゲット治具72の配置情報を取得する視覚ターゲット治具配置情報取得部74を備える点において相違する。
本実施形態では、視覚センサ架台に固定された視覚センサをキャリブレーションする方法を説明したが、ロボットのアーム先端部に固定された視覚センサをキャリブレーションするために視覚ターゲット治具を使用してもよい。この場合、視覚センサは第2の実施形態に従って、視覚ターゲット治具は第3の実施形態に従ってグラフィカルにそれぞれ表示される。
図7は、第4の実施形態に係るロボットシステム80及びロボットシステム80の表示装置20の構成を示す図である。図7に示されるロボットシステム80の構成は第3の実施形態に関連して説明されたロボットシステム70と概ね同じであるが、視覚ターゲット治具72が、テーブル32ではなく、腕木62を介してロボット12のアーム先端部に設置されている点において相違する。すなわち、視覚ターゲット治具72は、ロボット12のアームの動作に連動して、ロボット12のアーム先端部との間の相対的位置を維持するようになっている。また、視覚ターゲット治具72のドットパターン76を視覚センサ40によって撮像できるように、ロボット12のアーム先端部が移動される。
視覚ターゲット治具72がロボット12のアーム先端部に設置されている場合、手先座標系に対する視覚ターゲット治具座標系の相対的位置が視覚ターゲット治具72の設置情報として設定される。すなわち、キャリブレーションデータ記憶部54に記憶されている視覚ターゲット治具72の設置情報は、手先座標系における視覚ターゲット治具72の位置情報となる。
ロボット座標系における視覚ターゲット治具72の設置情報は、ロボットのアーム先端部が移動するのに従って変化する。現在のロボットの位置、すなわちロボット座標系に対する手先座標系の相対的位置をQ3、キャリブレーションデータ記憶部54に記憶されている手先座標系における視覚ターゲット治具72の位置情報をPjとすると、ロボット座標系から見た現在の視覚ターゲット治具72の設置情報P3は次の式(4)で求められる。
P3=Q3・Pj (4)
そして、ロボットシステム80の表示装置20は、ロボット座標系における現在の視覚ターゲット治具72の設置情報P3と、形状配置情報記憶部22に記憶されている視覚ターゲット治具72の形状情報とに基づいて、視覚ターゲット治具72を仮想の3次元空間内にグラフィカルに表示する。
図8は、第1の変形例に係るロボットシステム及びロボットシステムの表示装置20の機能ブロック図である。本変形例において、ロボットシステムの表示装置20は、視覚センサ制御装置42の機能を備えている。すなわち、表示装置20は、形状配置情報記憶部22と、表示部24と、キャリブレーションデータ取得部26と、視覚センサ配置情報取得部28と、視覚センサ制御部42’と、を含むデジタルコンピュータである。表示装置20の各構成要素は、バスによって互いに接続されている。視覚センサ制御部42’は、画像処理部52と、キャリブレーションデータ記憶部54と、をさらに備えている。キャリブレーションデータ記憶部54及び形状配置情報記憶部22は、1つの記憶部として形成されてもよい。
視覚センサ操作盤44は、通信ケーブルを介して表示装置20の視覚センサ制御部42’に接続される。操作者は視覚センサ操作盤44を操作して、視覚センサ40によって対象物30を計測するために必要な設定を行うことができる。また、一実施形態において、視覚センサ操作盤44が液晶ディスプレイ等の表示部24として機能するようにしてもよい。
図9は、第2の変形例に係るロボットシステムとロボットシステムの表示装置の機能ブロック図である。本変形例において、表示装置20は、ロボット制御装置14の機能を内蔵している。さらに、表示装置20は、視覚センサ制御装置42の機能も内蔵している。すなわち、表示装置20は、形状配置情報記憶部22と、表示部24と、キャリブレーションデータ取得部26と、視覚センサ配置情報取得部28と、ロボット制御部50と、視覚センサ制御部42’と、を含むデジタルコンピュータである。表示装置20の各構成要素はバスによって互いに接続されている。
ロボット操作盤16は、通信ケーブルを介して表示装置20のロボット制御部50に接続される。操作者は、ロボット操作盤16を操作してロボット12を動作させるとともに、表示装置20に内蔵された画像処理部52によって対象物30の撮像データを処理するために必要な設定を行うことができる。一実施形態において、ロボット操作盤16は、液晶ディスプレイ等で構成された表示部24を内蔵していてもよい。また、ロボット操作盤16と視覚センサ操作盤44は、同一の操作盤として形成されてもよい。
前述した実施形態及び変形例は本発明を理解するための例示であって、本明細書において明示されていない実施形態であっても、全体として同じ機能を有するものであれば、本願発明の範囲に含まれることはいうまでもない。以上、本発明の種々の実施形態を説明したが、本明細書において明示的又は暗示的に開示される複数の実施形態の特徴を任意に組合せることによっても本発明を実施できることは当業者に自明である。
10 ロボットシステム
12 ロボット
14 ロボット制御装置
16 ロボット操作盤
20 表示装置
22 形状配置情報記憶部(記憶部)
24 表示部
26 キャリブレーションデータ取得部(第1の取得部)
28 視覚センサ配置情報取得部(第2の取得部)
30 対象物
32 テーブル
40 視覚センサ
42 視覚センサ制御装置
44 視覚センサ操作盤
46 視覚センサ架台
50 ロボット制御部
52 画像処理部
54 キャリブレーションデータ記憶部
60 ロボットシステム
70 ロボットシステム
72 視覚ターゲット治具
74 視覚ターゲット治具配置情報取得部(第3の取得部)
80 ロボットシステム
そして、式(2)によって求められる現在の視覚センサ40の配置情報P2に基づいて、ロボットシステム表示装置20の表示部24に視覚センサ40を再表示する。
手先座標系で表現された視覚センサ40の配置情報をPtとする。PtはQ2と同様に4×4の同変換行列である。Ptはキャリブレーションデータ記憶部54に記憶されているキャリブレーションデータから求められる。また、現在のロボット12のアーム先端部の位置Q2は、ロボット制御装置14から取得され得る。したがって、現在のワールド座標系、例えばロボット座標系から見た視覚センサ40の配置情報P2は、以下の式(3)によって求められる。
P2=Q2・Pt (3)

Claims (7)

  1. ロボットシステムの構成要素の形状情報及び配置情報を記憶する記憶部と、
    前記記憶部によって記憶される前記構成要素の前記形状情報及び前記配置情報に基づいて、前記ロボットシステムの前記構成要素をグラフィカルに表示する表示部と、を備えるロボットシステム表示装置であって、
    前記ロボットシステムは、ロボット及び視覚センサを少なくとも備えており、
    当該ロボットシステム表示装置は、
    前記ロボットの動作制御の基準となるロボット座標系と、前記視覚センサによる計測処理の基準となる視覚センサ座標系とを互いに関連付けるキャリブレーションデータを取得する第1の取得部と、
    前記第1の取得部によって取得される前記キャリブレーションデータと、前記記憶部によって記憶される前記視覚センサの形状情報とに基づいて、前記視覚センサの配置情報を取得する第2の取得部と、をさらに備えており、
    前記表示部は、前記記憶部によって記憶される前記視覚センサの形状情報及び前記第2の取得部によって取得される前記視覚センサの配置情報に基づいて、前記視覚センサを表示するように構成される、ロボットシステム表示装置。
  2. 前記視覚センサは、前記ロボットのアームの動作に連動して該アームに対する相対的配置関係を維持するように該アームに固定されており、
    前記表示部は、前記アームと前記視覚センサとの間の相対的配置関係に基づいて、前記視覚センサをグラフィカルに表示するように構成される、請求項1に記載のロボットシステム表示装置。
  3. 前記ロボットシステムは視覚ターゲット治具をさらに備えており、
    前記第1の取得部は、前記ロボット座標系と前記視覚センサ座標系と前記視覚ターゲット治具とを互いに関連付けるキャリブレーションデータを取得するように構成されており、
    当該ロボットシステム表示装置は、
    前記表示部は、前記キャリブレーションデータに基づいて、前記視覚ターゲット治具の配置情報を取得する第3の取得部をさらに備え、
    前記表示部は、前記記憶部によって記憶される前記視覚ターゲット治具の形状情報及び前記第3の取得部によって取得される前記視覚ターゲット治具の配置情報に基づいて、前記視覚ターゲット治具をグラフィカルに表示するように構成される、請求項1又は2に記載のロボットシステム表示装置。
  4. 前記視覚ターゲット治具は、前記ロボットのアームの動作に連動して該アームに対する相対的配置関係を維持するように該アームに固定されており、
    前記表示部は、前記アームと前記視覚ターゲット治具との間の相対的配置関係に基づいて、前記視覚ターゲット治具をグラフィカルに表示するように構成される、請求項3に記載のロボットシステム表示装置。
  5. 前記記憶部によって記憶される前記ロボットシステムの前記構成要素の形状情報が3次元形状情報である、請求項1から4のいずれか1項に記載のロボットシステム表示装置。
  6. 当該ロボットシステム表示装置が前記視覚センサを制御する視覚センサ制御装置を備える、請求項1から5のいずれか1項に記載のロボットシステム表示装置。
  7. 当該ロボットシステム表示装置が前記ロボットを制御するロボット制御装置を備える、請求項1から6のいずれか1項に記載のロボットシステム表示装置。
JP2012287342A 2012-12-28 2012-12-28 ロボットシステム表示装置 Active JP5670416B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012287342A JP5670416B2 (ja) 2012-12-28 2012-12-28 ロボットシステム表示装置
US14/104,511 US9199379B2 (en) 2012-12-28 2013-12-12 Robot system display device
DE102013021917.5A DE102013021917B4 (de) 2012-12-28 2013-12-20 Robotersystemanzeigevorrichtung
CN201310741622.5A CN103909525B (zh) 2012-12-28 2013-12-27 机器人系统显示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012287342A JP5670416B2 (ja) 2012-12-28 2012-12-28 ロボットシステム表示装置

Publications (2)

Publication Number Publication Date
JP2014128845A true JP2014128845A (ja) 2014-07-10
JP5670416B2 JP5670416B2 (ja) 2015-02-18

Family

ID=50928528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012287342A Active JP5670416B2 (ja) 2012-12-28 2012-12-28 ロボットシステム表示装置

Country Status (4)

Country Link
US (1) US9199379B2 (ja)
JP (1) JP5670416B2 (ja)
CN (1) CN103909525B (ja)
DE (1) DE102013021917B4 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019038075A (ja) * 2017-08-25 2019-03-14 ファナック株式会社 ロボットシステム
JP2019177450A (ja) * 2018-03-30 2019-10-17 日本電産株式会社 キャリブレーション精度の評価方法及び評価装置
WO2021145280A1 (ja) * 2020-01-14 2021-07-22 ファナック株式会社 ロボットシステム
WO2021210540A1 (ja) * 2020-04-14 2021-10-21 ファナック株式会社 座標系設定システム及び位置姿勢計測システム
JP7033490B2 (ja) 2018-04-26 2022-03-10 株式会社日立物流 在庫管理装置、在庫管理方法及びプログラム
DE112021005353T5 (de) 2020-12-10 2023-08-31 Fanuc Corporation Bildverarbeitungssystem und Bildverarbeitungsverfahren
WO2024009767A1 (ja) * 2022-07-08 2024-01-11 ソニーグループ株式会社 キャリブレーション実行装置、キャリブレーション・システム、および方法、並びにプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5665333B2 (ja) * 2010-03-10 2015-02-04 キヤノン株式会社 情報処理装置および情報処理装置の制御方法
JP6468741B2 (ja) * 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
JP5815761B2 (ja) * 2014-01-23 2015-11-17 ファナック株式会社 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
US10179407B2 (en) * 2014-11-16 2019-01-15 Robologics Ltd. Dynamic multi-sensor and multi-robot interface system
CN108701430B (zh) * 2016-03-28 2020-12-01 Abb瑞士股份有限公司 确定用于焊缝点校准的搜索参数的方法、系统和装置
KR101864329B1 (ko) * 2016-12-07 2018-06-05 한화에어로스페이스 주식회사 로봇 암 제어 시스템 및 방법
US11820025B2 (en) 2017-02-07 2023-11-21 Veo Robotics, Inc. Safe motion planning for machinery operation
ES2927177T3 (es) * 2017-02-07 2022-11-03 Veo Robotics Inc Monitorización de la seguridad del espacio de trabajo y control de equipos
JP6734253B2 (ja) 2017-12-20 2020-08-05 ファナック株式会社 ワークを撮像する視覚センサを備える撮像装置
CN109848986B (zh) * 2019-01-08 2020-09-15 北京市城市管理研究院(北京市环境卫生监测中心) 基于机器视觉的目标物体高度不确定时的定位方法
DE112020006666T5 (de) * 2020-07-30 2023-04-13 Mitsubishi Electric Corporation Numerische Steuerung und numerisches Steuerungssystem
US20220219328A1 (en) * 2021-01-08 2022-07-14 General Electric Company Method and device for creation of three dimensional tool frame
DE112021007102T5 (de) 2021-04-19 2024-02-29 Fanuc Corporation Programmerzeugungsvorrichtung und Robotersteuerungsvorrichtung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135278A (ja) * 2003-10-31 2005-05-26 Fanuc Ltd シミュレーション装置
JP2009006452A (ja) * 2007-06-29 2009-01-15 Nissan Motor Co Ltd カメラとロボット間のキャリブレーション方法及びその装置
JP2009012106A (ja) * 2007-07-03 2009-01-22 Fuji Electric Systems Co Ltd 遠隔操作支援装置および遠隔操作支援プログラム
JP2009175954A (ja) * 2008-01-23 2009-08-06 Fanuc Ltd 加工用ロボットプラグラムの作成装置
JP5003840B1 (ja) * 2011-10-31 2012-08-15 オムロン株式会社 画像処理装置および画像処理プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5241626A (en) 1975-09-30 1977-03-31 Bridgestone Tire Co Ltd Drilling method of curable inorganic molded product
JP2690603B2 (ja) 1990-05-30 1997-12-10 ファナック株式会社 視覚センサのキャリブレーション方法
US5319443A (en) 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
JPH053840A (ja) 1991-06-26 1993-01-14 Sanyo Electric Co Ltd 電気掃除機排気熱循環装置
JPH09153146A (ja) * 1995-09-28 1997-06-10 Toshiba Corp 仮想空間表示方法
EP1059147A4 (en) * 1998-09-10 2008-01-16 Sony Corp ROBOT, ROBOT CONTROL, AND DISPLAY SYSTEM AND METHOD
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
JP3782679B2 (ja) 2001-05-09 2006-06-07 ファナック株式会社 干渉回避装置
US7233841B2 (en) * 2002-04-19 2007-06-19 Applied Materials, Inc. Vision system
EP2070487B1 (en) * 2002-08-13 2014-03-05 NeuroArm Surgical, Ltd. Microsurgical robot system
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
WO2006075331A2 (en) * 2005-01-13 2006-07-20 Mazor Surgical Technologies Ltd. Image-guided robotic system for keyhole neurosurgery
US20070188501A1 (en) * 2006-01-30 2007-08-16 Yee Yangli H Graphical computer simulation system and method
US8781193B2 (en) * 2007-03-08 2014-07-15 Sync-Rx, Ltd. Automatic quantitative vessel analysis
JP2008296330A (ja) 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
DE102007033486B4 (de) * 2007-07-18 2010-06-17 Metaio Gmbh Verfahren und System zur Vermischung eines virtuellen Datenmodells mit einem von einer Kamera oder einer Darstellungsvorrichtung generierten Abbild
US9248000B2 (en) * 2008-08-15 2016-02-02 Stryker European Holdings I, Llc System for and method of visualizing an interior of body
JP5290864B2 (ja) * 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
DE102009049849B4 (de) * 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
US8657809B2 (en) * 2010-09-29 2014-02-25 Stryker Leibinger Gmbh & Co., Kg Surgical navigation system
US20120203067A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
US20130250081A1 (en) * 2012-03-21 2013-09-26 Covidien Lp System and method for determining camera angles by using virtual planes derived from actual images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135278A (ja) * 2003-10-31 2005-05-26 Fanuc Ltd シミュレーション装置
JP2009006452A (ja) * 2007-06-29 2009-01-15 Nissan Motor Co Ltd カメラとロボット間のキャリブレーション方法及びその装置
JP2009012106A (ja) * 2007-07-03 2009-01-22 Fuji Electric Systems Co Ltd 遠隔操作支援装置および遠隔操作支援プログラム
JP2009175954A (ja) * 2008-01-23 2009-08-06 Fanuc Ltd 加工用ロボットプラグラムの作成装置
JP5003840B1 (ja) * 2011-10-31 2012-08-15 オムロン株式会社 画像処理装置および画像処理プログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019038075A (ja) * 2017-08-25 2019-03-14 ファナック株式会社 ロボットシステム
US10786906B2 (en) 2017-08-25 2020-09-29 Fanuc Corporation Robot system
US11565427B2 (en) 2017-08-25 2023-01-31 Fanuc Corporation Robot system
JP2019177450A (ja) * 2018-03-30 2019-10-17 日本電産株式会社 キャリブレーション精度の評価方法及び評価装置
JP7035727B2 (ja) 2018-03-30 2022-03-15 日本電産株式会社 キャリブレーション精度の評価方法及び評価装置
JP7033490B2 (ja) 2018-04-26 2022-03-10 株式会社日立物流 在庫管理装置、在庫管理方法及びプログラム
WO2021145280A1 (ja) * 2020-01-14 2021-07-22 ファナック株式会社 ロボットシステム
JPWO2021145280A1 (ja) * 2020-01-14 2021-07-22
JP7414850B2 (ja) 2020-01-14 2024-01-16 ファナック株式会社 ロボットシステム
WO2021210540A1 (ja) * 2020-04-14 2021-10-21 ファナック株式会社 座標系設定システム及び位置姿勢計測システム
DE112021005353T5 (de) 2020-12-10 2023-08-31 Fanuc Corporation Bildverarbeitungssystem und Bildverarbeitungsverfahren
WO2024009767A1 (ja) * 2022-07-08 2024-01-11 ソニーグループ株式会社 キャリブレーション実行装置、キャリブレーション・システム、および方法、並びにプログラム

Also Published As

Publication number Publication date
US9199379B2 (en) 2015-12-01
US20140188274A1 (en) 2014-07-03
CN103909525B (zh) 2015-12-30
DE102013021917A1 (de) 2014-07-03
DE102013021917B4 (de) 2018-09-06
JP5670416B2 (ja) 2015-02-18
CN103909525A (zh) 2014-07-09

Similar Documents

Publication Publication Date Title
JP5670416B2 (ja) ロボットシステム表示装置
JP7207851B2 (ja) 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体
KR102532072B1 (ko) 로봇 모션 용 비전 시스템의 자동 핸드-아이 캘리브레이션을 위한 시스템 및 방법
JP4021413B2 (ja) 計測装置
CN107428009B (zh) 用于工业机器人调试的方法、使用该方法的工业机器人系统和控制系统
JP4191080B2 (ja) 計測装置
JP6108860B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP4737668B2 (ja) 3次元計測方法および3次元計測システム
JP6812095B2 (ja) 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
JP5371927B2 (ja) 座標系校正方法及びロボットシステム
US20200298411A1 (en) Method for the orientation of an industrial robot, and industrial robot
JP4171488B2 (ja) オフラインプログラミング装置
JP5321532B2 (ja) ロボットキャリブレーション装置及びキャリブレーション方法
JP7102115B2 (ja) 校正方法、校正装置、3次元測定機、3次元視覚測定装置、ロボットのエンドエフェクタ、プログラム、記録媒体
JP2011031346A (ja) ロボットのツール先端点の位置の計測装置および計測方法
JP5523392B2 (ja) キャリブレーション装置及びキャリブレーション方法
JP2016185572A (ja) ロボット、ロボット制御装置およびロボットシステム
JP2015136770A (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP2012101306A (ja) ロボットの校正装置および校正方法
JP4613955B2 (ja) 回転軸線算出方法、プログラムの作成方法、動作方法およびロボット装置
JP2019055469A (ja) キャリブレーションを行うロボット制御装置、計測システム及びキャリブレーション方法
JP2019089201A (ja) 教示データ作成装置、教示データ作成装置の制御方法及びロボットシステム
Zhang et al. Vision-guided robot alignment for scalable, flexible assembly automation
JP2015222196A (ja) 三次元測定機、及びこれを用いた形状測定方法
TWI710441B (zh) 機器手臂的座標校正方法

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141217

R150 Certificate of patent or registration of utility model

Ref document number: 5670416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150