JP2020183032A - 静止マーカに対する機械作動式装置の較正 - Google Patents

静止マーカに対する機械作動式装置の較正 Download PDF

Info

Publication number
JP2020183032A
JP2020183032A JP2020081434A JP2020081434A JP2020183032A JP 2020183032 A JP2020183032 A JP 2020183032A JP 2020081434 A JP2020081434 A JP 2020081434A JP 2020081434 A JP2020081434 A JP 2020081434A JP 2020183032 A JP2020183032 A JP 2020183032A
Authority
JP
Japan
Prior art keywords
machine
robot
marker
rest
stationary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020081434A
Other languages
English (en)
Inventor
ケセルマン レオ
Keselman Leo
ケセルマン レオ
チョン ディレク
Jung Derek
チョン ディレク
ダブリュ.クラウス ケネス
Kenneth W Krause
ダブリュ.クラウス ケネス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc America Corp
Original Assignee
Fanuc America Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc America Corp filed Critical Fanuc America Corp
Publication of JP2020183032A publication Critical patent/JP2020183032A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Manipulator (AREA)

Abstract

【課題】静止マーカに対して、静止部を有する機械の位置を較正するためのシステム及び方法を提供する。【解決手段】プロセスでは、最初に機械とマーカとを撮像し、次に3Dモデル化された画像にて機械の可視部を特定する。次に、プロセスでは、可視部のモデル化された位置と機械の既知の運動学及び位置とを使用して、機械の静止部の位置を計算する。次に、プロセスでは、画像内にて静止マーカを特定し、静止マーカと機械の静止部との間の関係を確立し、この関係は、較正の目的で使用することができる。一実施形態では、機械はロボットであり、プロセスはARアプリケーションによって実施される。【選択図】図1

Description

関連出願の相互参照
本出願は、2019年5月3日に出願され、「静止マーカに対する機械作動式装置の較正」と題する米国仮特許出願第62/843,120号の出願日の利益を主張する。
この開示は、機械と固定マーカとの間の関係を確立する方法に概ね関し、さらに具体的には、ロボットのモデル化された可視部と、ロボットの静止部と、マーカとの間の関係を特定することにより、静止拡張現実マーカに対するロボットの位置を較正する方法に関する。
仮想世界にてコンピュータが生成した知覚情報によって現実世界に存在する対象物を強化する現実世界環境の相互作用的体験として、拡張現実(AR)が説明されている。較正の目的、教示の目的などのために、産業用ロボットの動作をシミュレートするためのARシステムの使用が当技術分野で知られている。例えば、車両の塗装、車体パネルの溶接のような特定の操作を実行する方法をロボットに教示するために、ARシステムを使用することができ、この操作では、熟練した操作者がARシステムを使用して操作を実演し、ロボットは当業者によく理解されている方法で関連する動作を学習する。ARシステムはこのほか、ロボットが侵入してはならない仮想安全ゾーンの確立など、他の教示活動に使用することができる。
対象物の3Dモデルを用いて、カメラなどの撮像システムと適切なアルゴリズムとを使用して、現実世界においてその対象物を見ることができる。このため、この3Dモデルは、較正するため、即ち、固定されたマーカと対象物との間のずれ又は距離を明らかにするために使用されることができる。ロボットシステムなどの移動する機械システムの場合、較正の目的などで、定着マーカからロボットの静止部までのずれを知ることが望ましい場合がある。ただし、これには、カメラから見え、カメラで検出するのに十分な特徴を有するロボットの基部など、システムの静止部が必要である。静止部が見えない場合または静止部に十分な特徴がない場合には、ロボットの移動部分を使用して較正を実施することは困難である。
以下の考察では、静止部を有する機械の位置を静止マーカに対して較正するためのシステム及び方法を開示し、説明する。プロセスでは、最初に機械及びマーカを撮像し、次に3Dモデル化された画像において機械の可視部を特定する。このプロセスでは、次に、可視部のモデル化された位置と機械の既知の運動学及び位置とを使用して、機械の静止部の位置を計算する。このプロセスでは、次に、画像内の静止マーカを特定し、静止マーカと機械の静止部との間の関係を確立し、この関係は、較正の目的で使用することができる。一実施形態では、機械はロボットであり、プロセスはARアプリケーションによって実施される。
本開示の追加の特徴が、添付の図面と併せて、以下の説明及び添付の特許請求の範囲から明らかになるであろう。
ロボット及び固定された静止マーカを含む作業場の等角図である。 ロボットと静止マーカとの間の較正関係を確立するためのプロセスを示すフローチャートの図である。
機械と固定マーカとの間の較正関係を確立する方法に関する本開示の実施形態の以下の考察は、本質的に単なる例示に過ぎず、本開示又はその用途又は使用を限定することを意図するものではない。
本開示は、固定マーカに対してロボットなどの機械式装置を較正するためのシステム及び方法を提案する。この方法は、機械の現在の位置と、機械の動作の運動学と、機械の全構成要素と機械の静止部との間の関係とに関する知識を有することが必要であり、少なくとも1つの構成要素が3Dモデル化され、有意な特徴を有し、十分に視認可能である。ARアプリケーションが、マーカとモデル化された構成要素とを撮像し、運動学を用いてモデル化された構成要素を静止部に関連付け、次に静止部とマーカとの間の関係を確立する。
図1は、機械、具体的には、ロボット12を含む作業場10の等角図である。ロボット12は、基部14と、回転及び枢動継手18によって基部14に連結された延長リンク16と、エルボ枢動継手22によって延長リンク16の基部14の反対側に連結された作業リンク20と、エンドエフェクタ24とを有する。ここでは、塗料塗布器などの(図示しない)工具がエンドエフェクタ24に結合されることになる。以下の考察では、延長リンク16は、十分な特徴を有し、既知の3Dモデルによってモデル化されたロボット12の可視部として説明される。ロボット12の他の部品もまた、モデル化されて識別されるのに十分な特徴を有し、較正過程の間静止している限り、この目的のために使用され得る。基部14は、典型的には十分な特徴を有していなかったり、及び/又は十分に視認可能ではなかったりするため、ほとんどの場合にこれらの構成要素の1つではない。ロボット12は、材料の切断、溶接、部品の選択/移動/配置、塗装などの製造環境にてさまざまな操作を実行するようにプログラムすることができる6軸ロボットなど、本明細書で考察する目的に適した任意の多軸産業用ロボットとすることができる。ロボット12は、基部14と、リンク16及び20と、エンドエフェクタ24と、既知の構成との間の既知の運動学及び幾何学、即ち、その現在の位置とを有する。この非限定的な実施形態ではロボット12が採用されているが、本明細書で考察される較正技術は、他の機械を静止マーカに対して較正するための適用があるであろう。
安全柵28は、作業場10に設けられ、安全の目的でロボット12の周りに位置決めされ、この考察ではロボット12から分離された非可動構成要素として作用する。いくつかの認識可能な特徴を有する画像、モデル又は他の印などの静止拡張現実マーカ30は、柵28上の可視位置にて柵28に固定される。ここで、マーカは、他の実施形態では、ロボット12から分離された他の静止構成要素に固定されることができる。ユーザ32が、作業場10に立ち、ARアプリケーション、ロボット12の運動学及びリンク16の3Dモデルがダウンロードされたタブレット34を保持している状態が示されている。本明細書にて考察する目的に適した多数のARアルゴリズムが当技術分野で知られている。タブレット34は、ARアプリケーションに提供される作業場10を撮像するカメラ36と、作業場10でのロボット12の動きのほか、他の事項を表示するディスプレイ38とを有する。タブレット34の代わりに、ARメガネ、スマートフォンなどの他のARデバイスを使用することができる。
ARアプリケーションは、マーカ30とロボット12との間の位置関係を確立してマーカ30に対するロボット12の構造体における情報を表示するために使用することができるアルゴリズムを動作させて、ディスプレイ38上のロボット12のシミュレートされた動きを観察する。これを達成するために、ユーザ32は、延長リンク16及びマーカ30がカメラ36の視野内で視認可能になるように、カメラ36をロボット12の方に向ける。アルゴリズムは、リンク16の3Dモデルを使用してリンク16を認識するか特定し、ロボット12の運動学又は動きを使用して、リンク16に対するロボット12の動作中に移動しない基部14の位置を判定する。ユーザ32は、マーカ30及びリンク16の両方をディスプレイ38にて視認可能になるように、マーカ30もカメラ36の視野内に配置する。次に、アルゴリズムは、マーカ30と基部14との間の数学的関係又は較正を判定する。このように、ロボット12の構造体における既知の情報を、マーカ30に対して表示することができる。特に、マーカ30と基部14との間の関係と、基部14とロボット12の他の部分との間の関係とを知ることにより、ロボット12上の点をマーカ30に対して表示して、ロボット12の動きをディスプレイ38に示し、例えば、ロボット12のシミュレートされた動作を観察することができる。
図2は、これまでに考察したように拡張現実マーカ30に対するロボット12の位置を較正するためのプロセスを示すフローチャートの図40である。このプロセスでは、ボックス42において、画像でロボット12およびマーカ30が視認可能になるように、最初にカメラ36を使用して作業場10を撮像する。次に、このプロセスでは、ボックス44において、3Dモデル化された画像にて、視認可能かつ認識可能なロボット12の部分、ここではリンク16を特定する。次に、このプロセスでは、ボックス46において、リンク16のモデル化された位置と、ロボット12の既知の運動学及び位置とから、ロボット12の静止部、ここでは基部14の位置を計算する。次に、このプロセスでは、ボックス48において画像内の静止マーカ30を特定し、ボックス50において静止マーカ30とロボット12の基部14との関係を確立する。これは、考察したように、較正及びシミュレーションの目的で使用することができる。
これまでの考察では、本開示の単なる例示的な実施形態を開示および説明している。当業者であれば、そのような考察及び添付の図面及び特許請求の範囲から、以下の特許請求の範囲で定義される開示の精神及び範囲から逸脱することなく、さまざまな変更、修正及び変形を実施することができることを容易に認識するであろう。

Claims (20)

  1. 静止マーカに対する機械の位置を較正する方法であって、
    前記機械と前記マーカとを含む画像を取得する工程と、
    前記画像内の前記機械の可視部の位置を特定する工程と、
    前記可視部の位置を使用して前記機械の静止部の位置を計算する工程と、
    前記画像内の前記静止マーカの位置を特定する工程と、
    前記静止マーカと前記機械の前記静止部との間の関係を確立する工程と、を含む方法。
  2. 前記機械の前記可視部の位置を特定する工程は、前記可視部の3Dモデルを使用する工程を含む、請求項1に記載の方法。
  3. 前記機械の静止部の位置を計算する工程は、前記機械の既知の運動学及び前記機械の位置を使用して前記機械の前記静止部の位置を計算する工程を含む、請求項1に記載の方法。
  4. 前記方法を実施するために拡張現実アルゴリズムを使用する、請求項1に記載の方法。
  5. 前記静止マーカと前記機械の前記静止部との間の関係を使用して、前記機械上の点を表示して前記機械のシミュレートされた動作を示す工程をさらに含む、請求項1に記載の方法。
  6. 前記機械はロボットである、請求項1に記載の方法。
  7. 前記マーカは、ロボット作業空間を取り囲む安全柵上に配置される、請求項6に記載の方法。
  8. 前記可視部は前記ロボットの中間リンクであり、前記静止部は前記ロボットの基部であり、前記中間リンクは前記基部に連結されている、請求項6に記載の方法。
  9. 画像を取得する工程は、カメラを使用する工程を含む、請求項1に記載の方法。
  10. 前記カメラは、タブレット、スマートフォン、又は拡張現実(AR)眼鏡の一部である、請求項9に記載の方法。
  11. ARアルゴリズムを使用して拡張現実(AR)マーカに対するロボットの位置を較正する方法であって、
    前記ロボットの可視部を3Dモデル化する工程と、
    カメラを使用して前記ロボットと前記ARマーカとを含む画像を取得する工程と、
    前記モデルを使用して、前記画像内に前記機械の前記可視部を配置する工程と、
    前記可視部の位置と前記ロボットの既知の運動学とを使用して、前記機械の静止部の位置を計算する工程と、
    前記画像内に前記静止マーカを配置する工程と、
    前記静止マーカと前記ロボットの前記静止部との間の関係を確立する工程と、を含む方法。
  12. 前記静止マーカと前記ロボットの前記静止部との間の関係を使用して、前記ロボット上の点を表示して前記ロボットのシミュレートされた動作を示す工程をさらに含む、請求項11に記載の方法。
  13. 前記マーカは、ロボット作業空間を取り囲む安全柵上に配置される、請求項11に記載の方法。
  14. 前記可視部は前記ロボットの中間リンクであり、前記静止部は前記ロボットの基部であり、前記中間リンクは前記基部に連結されている、請求項11に記載の方法。
  15. 前記カメラは、タブレット、スマートフォン、又は拡張現実(AR)眼鏡の一部である、請求項9に記載の方法。
  16. 静止マーカに対する機械の位置を較正するシステムであって、
    前記機械と前記マーカとを含む画像を取得する手段と、
    前記画像内の前記機械の可視部の位置を特定する手段と、
    前記可視部の位置を使用して前記機械の静止部の位置を計算する手段と、
    前記画像における前記静止マーカの位置を特定する手段と、
    前記静止マーカと前記機械の前記静止部との間の関係を確立する手段と、を備える、システム。
  17. 可視部の位置を特定する前記手段は、前記可視部の3Dモデルを使用する、請求項16に記載のシステム。
  18. 前記機械の前記静止部の位置を計算する前記手段は、前記機械の既知の運動学と前記機械の位置とを使用して前記機械の前記静止部の位置を計算する、請求項16に記載のシステム。
  19. 前記機械はロボットであり、前記可視部は前記ロボットの中間リンクであり、前記静止部は前記ロボットの基部であり、前記中間リンクは前記基部に連結されている、請求項16に記載のシステム。
  20. 前記マーカは、ロボット作業空間を取り囲む安全柵上に配置される、請求項19に記載のシステム。
JP2020081434A 2019-05-03 2020-05-01 静止マーカに対する機械作動式装置の較正 Pending JP2020183032A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962843120P 2019-05-03 2019-05-03
US62/843,120 2019-05-03
US16/862,744 US11752632B2 (en) 2019-05-03 2020-04-30 Actuated mechanical machine calibration to stationary marker
US16/862,744 2020-04-30

Publications (1)

Publication Number Publication Date
JP2020183032A true JP2020183032A (ja) 2020-11-12

Family

ID=73017175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081434A Pending JP2020183032A (ja) 2019-05-03 2020-05-01 静止マーカに対する機械作動式装置の較正

Country Status (3)

Country Link
US (1) US11752632B2 (ja)
JP (1) JP2020183032A (ja)
CN (1) CN111882671A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3613544A1 (en) * 2018-08-22 2020-02-26 Hilti Aktiengesellschaft Mobile construction robot

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11366450B2 (en) * 2017-03-23 2022-06-21 Abb Schweiz Ag Robot localization in a workspace via detection of a datum
DE102018109463C5 (de) * 2018-04-19 2023-10-05 Voraus Robotik Gmbh Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung

Also Published As

Publication number Publication date
CN111882671A (zh) 2020-11-03
US20200346350A1 (en) 2020-11-05
US11752632B2 (en) 2023-09-12

Similar Documents

Publication Publication Date Title
Ong et al. Augmented reality-assisted robot programming system for industrial applications
US10052765B2 (en) Robot system having augmented reality-compatible display
Yew et al. Immersive augmented reality environment for the teleoperation of maintenance robots
Pan et al. Recent progress on programming methods for industrial robots
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
US20140236565A1 (en) Robot simulator, robot teaching apparatus and robot teaching method
Gaschler et al. Intuitive robot tasks with augmented reality and virtual obstacles
US20180345493A1 (en) Teaching position correction device and teaching position correction method
JP5113666B2 (ja) ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法
JP2014180707A (ja) ロボット装置及び被加工物の製造方法
JP7396872B2 (ja) 拡張現実を用いたシミュレーション装置及びロボットシステム
US20190012837A1 (en) Augmented visualization for manufacturing
US20230316669A1 (en) Augmented reality or virtual reality system with active localisation of tools, use and associated procedure,
JP6773084B2 (ja) 動作教示装置、ロボットシステム及び動作教示方法
JP2009269134A (ja) 視覚検査装置のシミュレーション装置
JP2015174184A (ja) 制御装置
JP2020183032A (ja) 静止マーカに対する機械作動式装置の較正
WO2020130006A1 (ja) 情報投影システム、制御装置、及び情報投影方法
Zhang et al. Vision-guided robot alignment for scalable, flexible assembly automation
JP7366264B2 (ja) ロボット教示方法及びロボット作業方法
Filipenko et al. Virtual commissioning with mixed reality for next-generation robot-based mechanical component testing
Connolly A new integrated robot vision system from FANUC Robotics
US20200349737A1 (en) Multi-target calibration and augmentation
JP2023505322A (ja) ロボットをプログラムするための方法及びシステム
JP2021058979A (ja) ロボットアーム試験装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240614