JP2023051664A - 自動ロボットアームシステム、及びそのロボットアームとコンピュータビジョンとの間の協調方法 - Google Patents

自動ロボットアームシステム、及びそのロボットアームとコンピュータビジョンとの間の協調方法 Download PDF

Info

Publication number
JP2023051664A
JP2023051664A JP2021209592A JP2021209592A JP2023051664A JP 2023051664 A JP2023051664 A JP 2023051664A JP 2021209592 A JP2021209592 A JP 2021209592A JP 2021209592 A JP2021209592 A JP 2021209592A JP 2023051664 A JP2023051664 A JP 2023051664A
Authority
JP
Japan
Prior art keywords
robot arm
calibration
image
target
computer vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021209592A
Other languages
English (en)
Other versions
JP7263501B2 (ja
Inventor
陳鴻欣
Hung-Hsin Chen
余家潤
Chia-Jun Yu
黄啓銘
qi-ming Huang
張晉綸
Chin-Lun Chang
張耿寧
Keng-Ning Chang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taida Electronic Industry Co Ltd
Delta Electronics Inc
Original Assignee
Taida Electronic Industry Co Ltd
Delta Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taida Electronic Industry Co Ltd, Delta Electronics Inc filed Critical Taida Electronic Industry Co Ltd
Publication of JP2023051664A publication Critical patent/JP2023051664A/ja
Application granted granted Critical
Publication of JP7263501B2 publication Critical patent/JP7263501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39057Hand eye calibration, eye, camera on hand, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Abstract

【課題】撮影光軸とロボットアームのフランジ軸との重ね合わせを可能とし、ロボットアームとコンピュータビジョンとの協調性を向上させる自動ロボットアームシステム、及びそのロボットアームとコンピュータビジョンとの間の協調方法を提供する。【解決手段】ロボットアームとコンピュータビジョンとの間の協調方法は、ビームスプリッタにより可視光と測距光とを分離し、それぞれ非同軸に配置される画像撮像装置と光学測距装置とに導くことと、校正モードにおいて、ロボットアームの複数の校正姿勢及び対応する複数の校正画像に基づいて変換関係を計算することと、作業モードにおいて、撮影された作業画像及び変換関係に基づいて機械的空間座標を決定し、ロボットアームの移動を制御することを含む。【選択図】図4

Description

本発明はロボットアームに関し、特に自動ロボットアームシステム、及びそのロボットアームとコンピュータビジョンとの間の協調方法に関する。
従来のロボットアームシステムでは、カメラを用いて作業対象の画像を撮影し、画像分析により作業対象の位置を決定し、決定した位置にロボットアームを移動させることで作業対象に対して動作する。
しかし、従来のロボットアームシステムの欠点は、ロボットアームをカメラと同軸上に上下配置すると、ロボットアームの加工可能範囲が大幅に狭くなり、カメラの体積上限が大幅に制限されることである。
ロボットアームをカメラと非同軸に配置すると、ロボットアームのフランジ軸とカメラの撮影光軸との間にオフセット量が存在する。このオフセット量は、撮影画像を基準とした視覚的空間とロボットアームの機械的空間との間にランダム誤差を生じさせ、コンピュータビジョンがロボットアームを正確に制御することができない。
そのため、従来のロボットアームシステムには上述の問題があり、より効果的な解決策が急務となっている。
本発明の主な目的は、撮影光軸とフランジ軸とを重ね合わせ、ターゲット距離を測定し、ロボットアームとコンピュータビジョンとを協調することができる自動ロボットアームシステム、及びそのロボットアームとコンピュータビジョンとの間の協調方法を提供することである。
一実施形態では、ロボットアームとコンピュータビジョンとの間の協調方法は、校正モードにおいて、光学測距装置により測定されたターゲット距離に基づいて、画像撮像装置の有効撮影範囲内において複数の校正姿勢となるようにロボットアームを移動制御し、前記画像撮像装置により前記複数の校正姿勢で複数の校正画像をそれぞれ撮影し、ビームスプリッタにより前記ロボットアームのフランジ軸の外に配置された前記画像撮像装置に可視光を導くとともに、前記光学測距装置に測距光を導くことであって、前記光学測距装置の測距軸は、前記フランジ軸と平行又は重なることと、前記複数の校正姿勢及び前記複数の校正画像に基づいて、前記画像撮像装置の視覚的空間と前記ロボットアームの機械的空間との間の変換関係を計算することと、作業モードにおいて、前記画像撮像装置により作業画像を撮影し、前記作業画像及び前記変換関係に基づいて、作業を実行する機械的空間座標を決定することと、前記ロボットアームを前記機械的空間座標に移動制御することと、を含む。
一実施形態では、自動ロボットアームシステムは、ロボットアームと、画像撮像装置と、光学測距装置と、光路構造と、制御装置とを含む。前記ロボットアームは、立体空間を移動することに用いられる。前記画像撮像装置は、前記ロボットアームのフランジ軸の外に配置され、画像を撮影するために用いられる。前記光学測距装置は、前記ロボットアームに配置され、ターゲット距離を測定するために用いられ、前記光学測距装置の測距軸が前記フランジ軸と平行又は重なる。前記光路構造はビームスプリッタを含み、前記ビームスプリッタは、可視光を前記画像撮像装置に導くとともに、測距光を前記光学測距装置に導くために用いられる。前記制御装置は、前記ロボットアームと、前記画像撮像装置と、前記光学測距装置とに接続される。前記制御装置は、校正モードにおいて、前記ターゲット距離に基づいて前記画像撮像装置の有効撮影距離内において複数の校正姿勢となるように前記ロボットアームを移動制御し、前記複数の校正姿勢で複数の校正画像をそれぞれ撮影するように前記画像撮像装置を制御し、前記複数の校正姿勢及び前記複数の校正画像に基づいて、前記画像撮像装置の視覚的空間と前記ロボットアームの機械的空間との間の変換関係を計算するように設定される。前記制御装置は、作業モードにおいて、前記画像撮像装置を制御して作業画像を撮影し、前記作業画像及び前記変換関係に基づいて作業を実行する機械的空間座標を決定し、前記ロボットアームを前記機械的空間座標に移動制御するように設定される。
本発明によれば、撮影光軸とロボットアームのフランジ軸との重ね合わせを可能とし、ロボットアームとコンピュータビジョンとの協調性を向上させる。
本発明の一実施形態に係る自動ロボットアームシステムの構成図である。 本発明の一実施形態に係る自動ロボットアームシステムの部分構成図である。 本発明の一実施形態に係る制御装置の構成図である。 本発明の一実施形態に係る協調方法のフローチャートである。 本発明の一実施形態に係る協調方法の部分フローチャートである。 本発明の一実施形態に係る協調方法の部分フローチャートである。 本発明の一実施形態に係る自動ロボットアームシステムの概略配置図である。 本発明の一実施形態に係る校正モードの第1の概略図である。 本発明の一実施形態に係る校正モードの第2の概略図である。 図8で撮影した第1の校正画像の概略図である。 図9で撮影した第2の校正画像の概略図である。 従来のロボットアームシステムの概略配置図である。 従来のロボットアームシステムの視野範囲の概略図である。
本発明の好適な実施形態について、図面を参照しながら以下に説明する。
図12及び図13を参照する。図12は、従来のロボットアームシステムの概略配置図であり、図13は、従来のロボットアームシステムの視野範囲の概略図である。
図12に示すように、ロボットアームシステム1のカメラ12は、ロボットアーム10と非同軸に配置されている。非同軸配置のため、カメラ12の撮影光軸141とロボットアーム10のフランジ軸140との間にオフセット量d1が存在し、このオフセット量d1は、視覚的空間と機械的空間との位置決めにランダム誤差を引き起こす。
エンドエフェクタ11は、ロボットアーム10の先端に直接設けられている。ロボットアーム10がエンドエフェクタ11を移動させる(即ち、姿勢を変える)に伴い、ロボットアームに搭載されたカメラ12の視野範囲も変化し、ターゲット13を異なる角度で撮影することができる。
図13に示すように、ロボットアーム10がフランジ軸140を軸心18として角度α1の回動運動を行うと、エンドエフェクタ11は水平方向に移動しないので、実際にターゲット13を加工することができる。
しかし、回動したカメラ12の視野範囲は、範囲16から回動後の範囲17に変化し、ターゲット13のターゲット画像15がカメラ12の視野範囲から外れ、ロボットアームシステム1がターゲット13を視覚的空間的に位置決めすることができなくなる。
本発明は、上記非同軸配置に起因する問題を解決するために、新規な光路構造(特にビームスプリッタ)により、撮影光軸の入射端をフランジ軸に重ね合わせてハンドアイの同軸効果を達成することができる自動ロボットアームシステム、及びそのロボットアームとコンピュータビジョンとの間の協調方法を提供する。
また、本発明は、ハンドアイの同軸化を実現することができるため、非同軸配置に起因するオフセット量の問題を解消することができ、ターゲット物が視野範囲から外れることを回避することができる。
また、本発明は、非同軸配置を採用することにより、ロボットアームの加工可能範囲を大幅に向上させることができ、カメラの体積上限を大幅に向上させることができる。
さらに、本発明は、光学測距により視覚的空間と機械との間の位置決め校正を補助することで、ロボットアームとコンピュータ視覚との協調性を高めることができる。
図1は、本発明の一実施形態に係る自動ロボットアームシステムの構成図である。本発明の自動ロボットアームシステム2は、画像撮像装置21と、光学測距装置22と、ロボットアーム23と、記憶装置25と、これらの装置に接続される制御装置20とを主に含む。
画像撮像装置21は、例えばRGBビデオカメラ等のカラービデオカメラであり、作業エリアのターゲット26を撮影して、ターゲット26を含む(後述する校正画像及び作業画像のような)カラー画像を取得する。上記カラー画像は、主にコンピュータ視覚分析を実行し、ロボットアーム23の動きの参考として演算結果を提供するために用いられる。
ロボットアーム23は、立体空間内で搭載された装置を移動させることにより、異なる位置に対する(搭載された光学測距装置22により)測定、(搭載された画像撮像装置21により)撮影、(搭載された作業装置54により)加工等の作業を実現する。
ロボットアーム23の先端には、仮想のフランジ軸(例えばロボットアーム23の移動基準点)が設定され、その先端の空間位置は、フランジ軸に基づいて計算して決定されることができる。上記フランジ軸の計算は、ロボットアーム23の制御分野における従来技術であり、ここで説明を省略する。
本発明では、画像撮像装置21は、ロボットアーム23のフランジ軸の外に配置されている。これにより、ロボットアーム23の加工可能範囲(フランジ軸の可動範囲により決定される)を拡大し、画像撮像装置21の許容体積の上限を向上させることができる。その結果、体積が大きく効率の高いカメラを採用することができ、配線制限が緩くなる。
一実施形態では、図8及び図9に示すように、ロボットアーム23の先端に作業装置54が搭載されると、作業装置54は、ロボットアーム23の動きにより異なる位置に加工を実行することができる。本発明は、異なる作業装置54を搭載することにより、異なる用途を実現することができる。
一実施形態において、作業装置54は、制御装置20に連結されてその制御を受けることで、自動動作を実行することができる。
例えば、作業装置54が把持エンドエフェクタ、溶接ヒータ、マーキング工具、研磨工具、組立エンドエフェクタ、塗布工具及び/又はロック工具である場合、上記自動動作は、対応する把持動作(例えば、電子部品をピックアップしたり吸着したりする動作)、溶接動作(例えば、レーザー溶接ヘッドの加熱制御)、マーキング動作(例えば、焼き印、スプレー等の方式でマーキングを行う)、研磨動作(例えば、切削、研磨等を行う)、組立動作(例えば、指定された組立方式に基づいて複数のターゲットを継ぎ合わせ、重ね合わせる等を行う)、塗布動作(例えば、接着剤塗布、接着剤点付け等)及び/又はロック動作(例えば、ネジやナットでロックする)であってもよい。
光学測距装置22は、例えば赤外線測距装置であり、光学的手段により光学測距装置22とターゲット26との間のターゲット距離を測定する。
一実施形態において、上記測定は、ターゲット26を仮想の測距軸上に位置させ、三角測量法により測距軸に平行な方向に測定する。
一実施形態において、光学測距装置22は、ロボットアーム23の先端(又は先端近傍)に配置され、先端とターゲット26との間の距離を測定することができる。
一実施形態において、光学測距装置22の測距軸は、測定されたターゲット距離が対応するフランジ軸におけるロボットアーム23の先端とその直下のターゲット26との間の深さ値となるように、ロボットアーム23のフランジ軸と平行又は重なることができる。
光路構造24は、ロボットアーム23の先端(又は先端近傍)に設けられ、入射光(ターゲット26から出射又は反射された光)を受光し、入射光を可視光と測距光とに分離し、それぞれ画像撮像装置21と光学測距装置22とに導く。
具体的に言えば、光路構造24は、ビームスプリッタ240(図7~図9に示すように、例えば光学プリズム)を含む。ビームスプリッタ240は、入射光を異なる波長の光線、例えば入射光を可視光と赤外線(測距光)に分離することができる(その原理は異なる波長の光線が異なる屈折率を有する)。分離後、上記可視光は、可視光路(反射鏡又はレンズを配置してもよく、直接入射してもよい)を介して画像撮像装置21の写真レンズ211及び感光素子210に導かれ(図7参照)、上記測距光は、測距光路(反射鏡又はレンズを配置してもよく、直接入射してもよい)を介して光学測距装置22の光受信器221に導かれることができる。このように、光路構造24は、入射端でのフランジ軸、測距軸、撮影光軸(例えば、撮影視野の中心点やその他の基準点)の同軸配置を実現するとともに、画像撮像装置21がフランジ軸(及び測距光軸)の外に配置されることを可能にする。
記憶装置25は、磁気ディスク、ソリッドステートディスク、ROM、RAM、EEPROM、フラッシュメモリ、又は複数の記憶媒体の任意の組み合わせであってもよく、データを例えば、有効撮影距離251及び変換関係252を記憶するために用いられる。
制御装置20は、自動ロボットアームシステム2を、例えば校正モードと作業モードで制御することに用いられる。
図2は、本発明の一実施形態に係る自動ロボットアームシステムの部分構成図である。本実施形態において、制御装置20は、制御コンピュータ30と、ロボットアームコントローラ31とを含んでもよい。
ロボットアームコントローラ31は、ロボットアーム23に接続され、受信したアーム制御コマンドに基づいてロボットアームの移動を制御する。
一実施形態において、ロボットアーム23は、複数の自由度を提供するための複数の関節230~233(図8及び図9に示す)を含み、ロボットアーム23は、各関節230~233がサーボモータにより回動角度を制御されることにより、複数の自由度で移動することができる。
アーム制御コマンドは、ロボットアーム23の移動先(機械的空間座標)を指示することができ、ロボットアームコントローラ31は、アーム制御コマンドを対応する姿勢座標(例えば、各関節230~233の回動角度)に変換し、アーム制御コマンドに対応する姿勢をとるように各関節230~233を回動制御することができる。
制御コンピュータ30は例えば、産業用コンピュータ又はパーソナルコンピュータであり、(例えば、産業用ネットワーク又はその他のローカルエリアネットワークを介して)ロボットアームコントローラ31と、画像撮像装置21と、光学測距装置22と、記憶装置25とに接続され、これらの装置を制御する。例えば、制御コンピュータ30は、上記アーム制御コマンドをロボットアームコントローラ31に送信することで、ロボットアーム23を制御することができる。
一実施形態において、制御コンピュータ30は、(ネットワークに接続する)通信インターフェース、(ユーザと対話する)ヒューマンインターフェース、(電力を供給する)電源装置等の周辺装置32にさらに接続されている。
図7は、本発明の一実施形態に係る自動ロボットアームシステムの概略配置図である。
図7に示すように、自動ロボットアームシステム2は、取付ベース55を含む。取付ベース55は、ロボットアーム23の先端に連結され、ロボットアーム23により立体空間内で移動可能である。
また、画像撮像装置21、光学測距装置22及び光路構造24は、いずれも取付ベース55に配置されている。
一実施形態において、取付ベース55には、一つ又は複数の光源50(例えば環状光源)が設けられてもよい。光源50が作業エリア(特にターゲット51及び治具52)を照明することで、画像撮像装置21は、より良い明るさのターゲット画像を取得し、環境の明るさの変化の影響を大幅に低減することができる。
一実施形態において、光路構造24は、ビームスプリッタ240と反射鏡241とを含んでもよい。反射鏡241は、ビームスプリッタ240により分離された可視光を画像撮像装置21の写真レンズ211及び感光素子210に反射するために用いられる。画像撮像装置21の撮影光軸は、ビームスプリッタ240及び反射鏡241により、ロボットアーム23のフランジ軸53に重ね合わせられることができる。また、光学測距装置22の測距光軸は、フランジ軸53と平行又は重ね合わせ可能である。
一実施形態において、ビームスプリッタ240は、ロングパスダイクロイックミラー(longpass dichroic mirror)であってもよく、可視光の反射率が80%以上(例えば97%)、赤外線の透過率が75%以上(例えば92%)であり、例えば、730nm以上(例えば750nm)の波長の光を透過し、300nm~730nm(例えば450nm~490nm)の波長の光を反射する。
一実施形態において、光学測距装置22は、光送信器220と、光受信器221と、これらの装置に接続される測距コントローラ(図示せず)とを含む。光送信器220と光受信器221との間の中点に直交する垂直線が測距光軸である(図7では、測距光軸はフランジ軸53に重ね合わせられている)。
光送信器220は、ターゲット51に向けて測距光(測距赤外線)を送信するために用いられ、測距光は、ターゲット51に当たってビームスプリッタ240に反射され、ビームスプリッタ240を透過して光受信器221に到達する。測距コントローラ(例えば、マイクロコントローラやSoC(System on a chip))は、測距光の送受信時間差、光伝播速度、及び光送信器220と光受信器221との間の距離に基づいて三角測量法を行い、ターゲット距離(即ち、ターゲット51の深さ値)を計算するように設定されている。
図3は、本発明の一実施形態に係る制御装置の構成図である。制御装置20は、モジュール40~46を含んでもよい。モジュール40~46は、それぞれ、本発明の異なる機能を実行するように設定されている。
撮影制御モジュール40は、撮影動作の制御、合焦動作の制御、画像データの取得、設定された画像処理の実行等を行うように、画像撮像装置21を制御するために用いられる。
測距制御モジュール41は、測定の実行、測定データ(ターゲット距離)の取得、測定校正の実行等を行うように、光学測距装置22を制御するために用いられる。
アーム制御モジュール42は、アーム制御コマンドをロボットアームコントローラ31に送信することによりロボットアーム23の姿勢を制御し、ロボットアーム23の現在位置を取得するために用いられる。
校正制御モジュール43は、校正モードを実行するために用いられる。
作業制御モジュール44は、作業モードを実行するために用いられる。
変換処理モジュール45は、視覚的空間から機械的空間への座標変換、及び機械的空間から視覚的空間への座標変換を計算するために用いられる。
画像分析モジュール46は、ターゲット画像に対して画像分析及び処理を実行するために用いられる。
上記モジュール40~46は、互いに接続(電気的接続及びデータ接続であってもよい)されており、ハードウェアモジュール(例えば、電子回路モジュール、集積回路モジュール、SoC等)、ソフトウェアモジュール(例えば、ファームウェア、オペレーティングシステム、又はアプリケーションプログラム)、又はソフトウェアモジュールとハードウェアモジュールとの組み合わせであってもよく、これらに限定されない。
また、上記モジュール40~46がソフトウェアモジュール(例えば、ファームウェア、オペレーティングシステム、又はアプリケーションプログラム)である場合、記憶装置25は、非一時的なコンピュータ読み取り可能な記録媒体(図示せず)を含んでもよく、上記非一時的なコンピュータ読み取り可能な記録媒体には、コンピュータプログラム250が記憶されており、コンピュータプログラム250には、コンピュータ実行可能なプログラムコードが記録される。制御装置20は、上記プログラムコードを実行すると、モジュール40~46に対応する機能を実施することができる。
一実施形態において、上記モジュール40~46は、制御コンピュータ30に設けられてもよい。例えば、記憶装置25は、コンピュータプログラム250が記憶された制御コンピュータ30のストレージを含んでもよい。制御コンピュータ30のプロセッサは、モジュール40~46に対応する機能を実施するために、コンピュータプログラム250を実行することができる。
図4は、本発明の一実施形態に係る協調方法のフローチャートである。本実施形態のロボットアームとコンピュータビジョンとの協調方法は、校正ステップS10~S12と、作業モードステップS13~S16とを含む。
ステップS10において、制御コンピュータ30は、校正制御モジュール43により校正モードに入り、機械的空間と視覚的空間との間の協調と校正を実行する。
例えば、制御コンピュータ30は、ユーザによる校正開始操作を受け付けたり、校正コマンドを受信したりすると、校正モードに入ることができる。
ステップS11において、制御コンピュータ30は、ロボットアーム23を移動制御し、現在のターゲット距離を取得し、現在のターゲット距離に基づいてロボットアーム23(の先端)が画像撮像装置21の有効撮影範囲に入ったか否かを判断する。
有効撮影範囲に入ると、ロボットアーム23を有効撮影範囲に順次に複数の校正姿勢をとるように制御し、各校正姿勢をとるときに少なくとも一つの校正画像を撮影して、それぞれ複数の校正姿勢に対応する複数の校正画像を取得する。
ステップS12において、制御コンピュータ30は、変換処理モジュール45により、複数の校正姿勢及び複数の校正画像に基づいて、画像撮像装置21の視覚的空間とロボットアーム23の機械的空間との変換関係を計算する。
一実施形態において、制御コンピュータ30は、各校正画像において校正ターゲットの視覚的空間座標を認識し、校正ターゲットが複数の校正画像の複数の視覚的空間座標の変化を計算し、複数の校正姿勢が対応する複数の機械的空間座標の変化を計算し、上記機械的空間座標の変化及び視覚的空間座標の変化に基づいて視覚的空間と機械的空間との間の変換関係を計算することができる。
一実施形態において、
Figure 2023051664000002
として示される視覚的空間、
Figure 2023051664000003
として示される機械的空間、及び
Figure 2023051664000004
として示される変換関係の間の数学的関係は、以下の数1に表される。
Figure 2023051664000005
一実施形態において、
Figure 2023051664000006
として示される変換関係は、以下のように計算することにより取得することができる。
画像撮像装置21は、校正ターゲットの特徴
Figure 2023051664000007
(例えば、チェッカー)を複数回撮影して、複数の異なる校正姿勢における画像撮像装置21と特徴との以下の関係式(数2)を取得すると同時に、複数の現在の校正姿勢の以下の表現式(数3)(
Figure 2023051664000008
は、世界座標等の機械的空間座標)を取得する。特徴物は機械的空間座標で
Figure 2023051664000009
として一定であるので、互いの関係式を以下の数4で表すことができる。
Figure 2023051664000010

Figure 2023051664000011

Figure 2023051664000012

Figure 2023051664000013

Figure 2023051664000014

Figure 2023051664000015
は、いずれも既知であるので、複数のデータを得ることで方程式を最適化し、誤差項が最小となる最適解
Figure 2023051664000016
を得ることができる。つまり、校正データが多いほど変換関係
Figure 2023051664000017
が正確になる。
ステップS13において、制御コンピュータ30は、作業制御モジュール44により作業モードに入り、作業を実行する。
例えば、制御コンピュータ30は、ユーザによる作業開始操作を受け付けたり、作業コマンドを受信したりすると、作業モードに入ることができる。
ステップS14において、制御コンピュータ30は、ロボットアーム23を移動制御しし、現在のターゲット距離を取得し、現在のターゲット距離に基づいてロボットアーム23(の先端)が画像撮像装置21の有効撮影範囲に入ったか否かを判断する。
有効撮影範囲に入ると、制御コンピュータ30は、作業ターゲットを撮影して作業画像を取得するように画像撮像装置21を制御し、画像分析モジュール46により作業関連画像の分析処理を実行し、作業画像中で加工する位置(視覚的空間座標)を決定する。次に、制御コンピュータ30は、変換処理モジュール45により変換関係を用いて、視覚的空間座標を機械的空間座標に変換する。また、制御コンピュータ30は、ロボットアーム23を機械的空間座標に移動制御する。
ステップS15において、制御コンピュータ30は、ターゲットに対して作業を実行するようにロボットアーム23を制御する。
一実施形態において、制御コンピュータ30は、作業装置54をさらに制御して、機械的空間座標において例えば、把持動作、溶接動作、マーキング動作、研磨動作、組立動作、塗布動作、及び/又はロック動作等の自動動作を実行するようにロボットアームを制御することができる。
本発明は、ロボットアーム及びコンピュータビジョンに対して校正することにより、ロボットのハンドアイの協調性を高めることができる。
図5は、本発明の一実施形態に係る協調方法の部分フローチャートである。図4も併せて参照すると、本実施形態の協調方法のステップS11は、図4に示す協調方法に比べてステップS20~S25をさらに含む。
ステップS20において、制御コンピュータ30は、画像撮像装置21の有効撮影距離(図1に示すような有効撮影距離251)を取得し、有効撮影距離に基づいて有効撮影範囲を設定する。
上記有効撮影距離は、例えば、画像撮像装置21の最大合焦距離又は最小合焦距離であってもよく、有効撮影範囲は、例えば、画像撮像装置21の合焦範囲であってもよい。
一実施形態において、制御コンピュータ30は、有効撮影距離が50cmであれば、0~50cmを有効撮影範囲として設定してもよいし、25~50cmを有効撮影範囲として設定してもよいし、25~75cmを有効撮影範囲として設定してもよいが、これらに限定されない。
また、画像撮像装置21及び撮影ターゲットが上記有効撮影距離又は有効撮影範囲に入る場合、画像撮像装置21は、撮影ターゲットに正確に焦点を合わせることができ、鮮明なターゲット画像を撮像することができる。画像撮像装置21及び撮影ターゲットが有効撮影範囲内にない場合、画像撮像装置21は、正確に焦点を合わせず、ぼやけたターゲット画像を生成してしまう。
ステップS21において、制御コンピュータ30は、ターゲット距離に基づいて有効撮影範囲内に入ったと判断するまで、ターゲット距離を継続的に測定し、ロボットアーム23を移動制御する。
ステップS22において、制御コンピュータ30は、現在のターゲット距離を継続的に測定し、有効撮影範囲内で異なる焦点測定姿勢をとるようにロボットアーム23を移動制御し、各焦点測定姿勢の焦点測定画像を撮影する。
一実施形態において、上記複数の焦点測定姿勢は、異なるターゲット距離でとるものである。つまり、制御コンピュータ30は、有効撮影範囲内でロボットアーム23の高さ(ターゲットから遠いところからターゲットに近いところまで)を継続的に変換して、異なる高さの焦点測定画像を得る。
ステップS23において、制御コンピュータ30は、画像分析モジュール46により複数の焦点測定画像及び対応する複数のターゲット距離に対して合焦分析を実行して、基準姿勢及び基準距離を決定する。
一実施形態では、上記合焦分析は、複数の焦点測定画像のうち一つ又は複数の焦点の合った焦点測定画像(即ち、鮮明な画像)を選択すること、これらの焦点測定画像の焦点測定姿勢を撮影することに基づいて基準姿勢(例えばこれらの焦点測定姿勢の中心又は重心)を決定すること、これらの焦点測定画像ターゲット距離を撮影することに基づいて基準距離(例えば平均値)を決定することを含む。
一実施形態において、上記合焦分析は、複数の画像のエッジ特徴、勾配の大きさ等を分析することにより、最も鮮明な焦点測定画像を決定し、最も鮮明な焦点測定画像を取得できる焦点測定姿勢及びターゲット距離を取得して基準姿勢及び基準距離とすることができる。
ステップS24において、制御コンピュータ30は、基準姿勢及び基準距離に基づいて校正姿勢となるようにロボットアーム23を移動制御し、この校正姿勢で対応する校正画像を撮影する。
一実施形態において、各校正姿勢のターゲット距離は、基準距離に等しいか又は近い距離であり、基準姿勢に基づいて変化する。例えば、ロボットアーム23の先端を同じ高さ平面上で回動又は変位させる。
ステップS25において、制御コンピュータ30は、校正制御モジュール43により予め設定された収集停止条件が満たされるか否かを判断することで、収集された校正データが十分であるか否かを判断する。例えば、10個、50個又は100個等予め設定された数を満たすかを判断し、これらに限定されない。
収集停止条件が満たされた場合には、修正データの収集を終了する。そうでない場合には、ステップS24を再度実行して、異なる校正姿勢で撮影された校正画像を得る。
このように、本発明では、ロボットアームの回動及び変位を連続的に変化させて異なる校正姿勢をとり、十分な校正データを収集するまで各校正姿勢の校正画像を撮影することができる。
一実施形態において、収集された複数の校正姿勢のうちの少なくとも2つの校正姿勢が位置する平面は治具52と平行である。
一実施形態において、収集された複数の校正姿勢のうちの少なくとも2つの校正姿勢は異なるターゲット距離、即ち異なる高さにある。
本発明では、撮影光軸とフランジ軸とが重ね合わせるので、計算された変換関係はより正確になることができる。
図6は、本発明の一実施形態に係る協調方法の部分フローチャートである。図4も併せて参照すると、本実施形態の協調方法のステップS14は、図4に示す協調方法に比べてステップS30~S33をさらに含む。
ステップS30において、制御コンピュータ30は、ロボットアーム23を(例えば、作業ターゲットに向けて継続的に接近するように)移動制御し、ターゲット距離を継続的に取得し、ターゲット距離に基づいてロボットアーム23が有効撮影範囲に入ったか否か(例えば、ターゲット距離が有効撮影距離251未満であるか否か)を判定する。
ステップS31において、制御コンピュータ30は、ロボットアーム23(画像撮像装置21を含む)が有効撮影範囲に入ると、作業ターゲットを撮影して作業画像を取得する。
ステップS32において、制御コンピュータ30は、画像分析モジュール46により作業画像に対して画像分析を実行する。
一実施形態において、上記画像分析は、作業画像において作業ターゲットを認識し、作業ターゲットの視覚的空間における位置に基づいて作業分析を実行することにより、作業を実行する必要がある視覚的空間座標を決定することを含んでもよい。
一実施形態において、上記作業分析は、(例えば、素子欠陥を検出する)欠陥検出処理、(例えば、素子の面積又は長さを測定する)測定処理、(例えば、素子を認識及び分類する)分類スクリーニング処理、及び(例えば、素子の把持点、組立点、溶接点等を決定する)素子位置決め処理であってもよい。
ステップS33において、制御コンピュータ30は、変換関係252に基づいて、作業を実行する視覚的空間座標を、作業を実行する機械的空間座標に変換する。
一実施形態において、制御コンピュータ30は、さらに作業装置54とフランジ軸との位置差に基づいて機械的空間座標を補正し、補正された機械的空間座標を得ることができる。また、制御コンピュータ30は、補正された機械的空間座標に基づいてアーム制御コマンドを生成し、アーム制御コマンドをロボットアームコントローラ31に送信して、作業を実行する機械的空間座標に作業装置54を移動させるように、ロボットアームを制御することができる。
このように、本発明は、コンピュータビジョンにより加工作業を自動に実行することができる。
図8~図11を参照する。図8は、本発明の一実施形態に係る校正モードの第1の概略図である。図9は、本発明の一実施形態に係る校正モードの第2の概略図である。図10は、図8で撮影した第1の校正画像の概略図である。図11は、図9で撮影した第2の校正画像の概略図である。
本実施形態において、光路構造は、ビームスプリッタ240のみを含む。ビームスプリッタ240により分離された可視光は、画像撮像装置21に直接入射し、画像撮像装置21の写真レンズの向きは、フランジ軸に垂直である。
また、作業装置54は、入射光の入射を妨げることのないように、取付ベース55の底部に配置され、フランジ軸の外に位置している。
さらに、上記配置方法では、作業装置54とフランジ軸との距離が一定であるため、制御装置20は、フランジ軸により作業装置54の現在の空間位置を迅速かつ正確に計算することができる。
ロボットアーム23は、先端が有効撮影距離h1内に移動した後、関節230~233を調節することにより図8に示すような第1の校正姿勢P1をとり、画像撮像装置21により図10に示すような第1の校正画像を撮影する。
次に、ロボットアーム23は、関節232、233を調節することにより、図9に示すような異なる第2の校正姿勢P2をとり、画像撮像装置21により図11に示すような第2の校正画像を撮影する。
図10に示すように、第1の校正姿勢P1では、第1の校正画像のターゲット60の特徴(ここが中心点)が視覚的空間に位置する位置600である。
図11に示すように、第2の校正姿勢P2に変換した後、第2の校正画像のターゲット60の特徴が視覚的空間の位置601に移動する。
次に、第1の校正姿勢P1と第2の校正姿勢P2との間の機械的空間座標の変化量を計算し、位置600から位置601までの視覚的空間の変化量V1を計算する。この2群の変化量を関連付けると、視覚的空間と機械的空間との間の変換関係を取得し、校正が完了する。
以上、本発明の好ましい実施形態を説明したが、本発明は上記実施形態に記載の範囲には限定されない。本発明の要旨を逸脱しない範囲で上記各実施の形態に多様な変更又は改良を加えることができ、上記変更又は改良を加えた形態も本発明の技術的範囲に含まれる。
1 ロボットアームシステム
10 ロボットアーム
11 エンドエフェクタ
12 カメラ
13 ターゲット
140 フランジ軸
141 撮影光軸
15 ターゲット画像
16 範囲
17 回動後の範囲
18 軸心
2 自動ロボットアームシステム
20 制御装置
21 画像撮像装置
210 感光素子
211 写真レンズ
22 光学測距装置
220 光送信器
221 光受信器
23 ロボットアーム
230~233 関節
24 光路構造
240 ビームスプリッタ
241 反射鏡
25 記憶装置
250 コンピュータプログラム
251 有効撮影距離
252 変換関係
26 ターゲット
30 制御コンピュータ
31 ロボットアームコントローラ
32 周辺装置
40 撮影制御モジュール
41 測距制御モジュール
42 アーム制御モジュール
43 校正制御モジュール
44 作業制御モジュール
45 変換処理モジュール
46 画像分析モジュール
50 光源
51 ターゲット
52 治具
53 フランジ軸
54 作業装置
55 取付ベース
60 画像
600、601 位置
α1 回動角度
d1 オフセット量
h1 ターゲット距離
P1、P2 姿勢
V1 変化量

Claims (11)

  1. 校正モードにおいて、光学測距装置により測定されたターゲット距離に基づいて、画像撮像装置の有効撮影範囲内において複数の校正姿勢となるようにロボットアームを移動制御し、前記画像撮像装置により前記複数の校正姿勢で複数の校正画像をそれぞれ撮影し、ビームスプリッタにより前記ロボットアームのフランジ軸の外に配置された前記画像撮像装置に可視光を導くとともに、前記光学測距装置に測距光を導くステップであって、前記光学測距装置の測距軸は、前記フランジ軸と平行又は重なるステップaと、
    前記複数の校正姿勢及び前記複数の校正画像に基づいて、前記画像撮像装置の視覚的空間と前記ロボットアームの機械的空間との間の変換関係を計算するステップbと、
    作業モードにおいて、前記画像撮像装置により作業画像を撮影し、前記作業画像及び前記変換関係に基づいて、作業を実行する機械的空間座標を決定するステップcと、
    前記ロボットアームを前記機械的空間座標に移動制御するステップdと、を含む、
    ロボットアームとコンピュータビジョンとの間の協調方法。
  2. 前記ステップaは、
    前記画像撮像装置の有効撮影距離を取得し、前記有効撮影距離に基づいて前記有効撮影範囲を設定するステップa1と、
    前記有効撮影範囲内においてそれぞれ異なる前記ターゲット距離の複数の焦点測定姿勢となるように前記ロボットアームを制御し、前記複数の焦点測定姿勢でそれぞれ複数の焦点測定画像を撮影するステップa2と、
    前記複数の焦点測定画像及び対応する前記複数のターゲット距離に対して合焦分析を実行して、基準姿勢及び基準距離を決定するステップa3と、を含む、
    請求項1に記載のロボットアームとコンピュータビジョンとの間の協調方法。
  3. 前記合焦分析は、
    前記複数の焦点測定画像のうち少なくとも一つの焦点の合った前記焦点測定画像を選択するステップe1と、
    撮影された鮮明な前記焦点測定画像の前記焦点測定姿勢及び前記ターゲット距離に基づいて、前記基準姿勢及び前記基準距離を決定するステップe2と、を含む、
    請求項2に記載のロボットアームとコンピュータビジョンとの間の協調方法。
  4. 前記ステップaは、
    基準姿勢及び基準距離に基づいて、異なる校正姿勢となるように前記ロボットアームを連続的に移動制御し、収集停止条件が満たされるまで前記複数の校正画像をそれぞれ撮影するステップa4を含む、
    請求項1に記載のロボットアームとコンピュータビジョンとの間の協調方法。
  5. 前記ステップbは、
    各前記校正画像において校正ターゲットの視覚的空間座標を認識するステップb1と、
    前記複数の校正画像において前記校正ターゲットの前記複数の視覚的空間座標の変化を計算するステップb2と、
    前記複数の機械的空間座標の変化を計算するステップb3と、
    前記複数の機械的空間座標の変化及び前記複数の視覚的空間座標の変化に基づいて、視覚的空間と機械的空間との間の前記変換関係を計算するステップb4と、を含む、
    請求項1に記載のロボットアームとコンピュータビジョンとの間の協調方法。
  6. 前記ステップcは、
    前記ロボットアームが前記有効撮影範囲に入る場合に前記作業画像を撮影するステップc1と、
    前記作業画像において作業ターゲットを認識し、前記作業ターゲットの位置に基づいて作業分析を実行することにより、作業を実行するための視覚的空間座標を決定するステップc2と、
    前記変換関係に基づいて、作業を行う前記視覚的空間座標を、作業を行う前記機械的空間座標に変換するステップc3と、を含む、
    請求項1に記載のロボットアームとコンピュータビジョンとの間の協調方法。
  7. 前記作業分析は、欠陥検出処理、測定処理、分類スクリーニング処理、及び素子位置決め処理のうち少なくとも一つを含む、
    請求項6に記載のロボットアームとコンピュータビジョンとの間の協調方法。
  8. 前記機械的空間座標で自動動作を実行するように前記ロボットアームを制御するステップfをさらに含む、
    請求項1に記載のロボットアームとコンピュータビジョンとの間の協調方法。
  9. 前記自動動作は、把持動作、溶接動作、マーキング動作、研磨動作、組立動作、塗布動作、及びロック動作のうち少なくとも一つを含む、
    請求項8に記載のロボットアームとコンピュータビジョンとの間の協調方法。
  10. 前記ビームスプリッタは、可視光の反射率が80%以上、赤外線の透過率が75%以上である、
    請求項1に記載のロボットアームとコンピュータビジョンとの間の協調方法。
  11. 立体空間を移動するロボットアームと、
    前記ロボットアームのフランジ軸の外に配置され、画像を撮影するための画像撮像装置と、
    前記ロボットアームに配置され、ターゲット距離を測定するために用いられ、測距軸が前記フランジ軸と平行又は重なる光学測距装置と、
    可視光を前記画像撮像装置に導くとともに、測距光を前記光学測距装置に導くビームスプリッタを含む光路構造と、
    前記ロボットアームと、前記画像撮像装置と、前記光学測距装置とに接続された制御装置と、を含み、
    前記制御装置は、校正モードにおいて、前記ターゲット距離に基づいて前記画像撮像装置の有効撮影距離内において複数の校正姿勢となるように前記ロボットアームを移動制御し、前記複数の校正姿勢で複数の校正画像をそれぞれ撮影するように前記画像撮像装置を制御し、前記複数の校正姿勢及び前記複数の校正画像に基づいて、前記画像撮像装置の視覚的空間と前記ロボットアームの機械的空間との間の変換関係を計算するように設定され、
    前記制御装置は、作業モードにおいて、前記画像撮像装置を制御して作業画像を撮影し、前記作業画像及び前記変換関係に基づいて作業を実行する機械的空間座標を決定し、前記ロボットアームを前記機械的空間座標に移動制御するように設定されている、
    自動ロボットアームシステム。
JP2021209592A 2021-09-30 2021-12-23 自動ロボットアームシステム、及びそのロボットアームとコンピュータビジョンとの間の協調方法 Active JP7263501B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111162843.8A CN115890638A (zh) 2021-09-30 2021-09-30 自动化机械手臂系统
CN202111162843.8 2021-09-30

Publications (2)

Publication Number Publication Date
JP2023051664A true JP2023051664A (ja) 2023-04-11
JP7263501B2 JP7263501B2 (ja) 2023-04-24

Family

ID=85718335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021209592A Active JP7263501B2 (ja) 2021-09-30 2021-12-23 自動ロボットアームシステム、及びそのロボットアームとコンピュータビジョンとの間の協調方法

Country Status (3)

Country Link
US (1) US11958200B2 (ja)
JP (1) JP7263501B2 (ja)
CN (1) CN115890638A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0631666A (ja) * 1992-07-15 1994-02-08 Fujitsu Ltd 知能ロボット
US6320641B1 (en) * 1997-04-01 2001-11-20 Agris-Schoen Vision Systems, Inc. High-precision-resolution image acquisition apparatus and method
JP2015182144A (ja) * 2014-03-20 2015-10-22 キヤノン株式会社 ロボットシステムおよびロボットシステムの校正方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS566550B2 (ja) * 1973-01-20 1981-02-12
US5361217A (en) * 1992-05-07 1994-11-01 Fuji Photo Optical Co., Ltd. Position measuring/plotting apparatus
JP4837116B2 (ja) 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US8553937B2 (en) * 2011-10-20 2013-10-08 Honeywell International Inc. Controller for an image stabilizing orthogonal transfer charge-coupled device
TWI452409B (zh) * 2012-12-14 2014-09-11 Delta Electronics Inc 光源模組、光激發裝置及應用其之投影機
JP6108860B2 (ja) * 2013-02-14 2017-04-05 キヤノン株式会社 ロボットシステム及びロボットシステムの制御方法
US9424650B2 (en) * 2013-06-12 2016-08-23 Disney Enterprises, Inc. Sensor fusion for depth estimation
KR20150057011A (ko) * 2013-11-18 2015-05-28 삼성전자주식회사 광원일체형 카메라
IN2014DE02323A (ja) * 2013-11-27 2015-06-26 Bae Systems Information & Electronic Systems Integration Inc
KR20170035831A (ko) * 2014-03-14 2017-03-31 시냅티브 메디컬 (바베이도스) 아이엔씨. 인텔리전트 포지셔닝 시스템과 그것의 방법들
US10466044B2 (en) * 2015-12-17 2019-11-05 Bae Systems Information And Electronic Systems Integration Inc. Sensor imager and laser alignment system
US11927965B2 (en) * 2016-02-29 2024-03-12 AI Incorporated Obstacle recognition method for autonomous robots
WO2019095045A1 (en) * 2017-11-20 2019-05-23 Kindred Systems Inc. Systems, devices, articles, and methods for calibration of rangefinders and robots
US11254019B2 (en) * 2019-03-05 2022-02-22 The Boeing Company Automatic calibration for a robot optical sensor
US11396057B2 (en) * 2019-07-02 2022-07-26 Servo-Robot Inc. Twin laser camera assembly
TWI699264B (zh) 2019-07-05 2020-07-21 上銀科技股份有限公司 視覺導引機器手臂校正方法
CN112404632B (zh) * 2019-08-22 2022-09-02 台达电子工业股份有限公司 焊锡装置及其系统控制器
CN110599541B (zh) * 2019-08-28 2022-03-11 贝壳技术有限公司 一种对多传感器进行标定的方法、装置和存储介质
TWI701123B (zh) 2019-12-18 2020-08-11 財團法人工業技術研究院 機器人工件座標系自動校正系統與方法
EP3961280A1 (en) * 2020-08-27 2022-03-02 Leica Instruments (Singapore) Pte. Ltd. An autofocus system, an optical system, a method for an autofocus system and a computer program
CN114310868B (zh) 2020-09-29 2023-08-01 台达电子工业股份有限公司 机器手臂的坐标系校正设备及校正方法
TWI724977B (zh) 2020-09-29 2021-04-11 台達電子工業股份有限公司 機器手臂的座標系校正設備及校正方法
US11328409B2 (en) * 2020-09-30 2022-05-10 Mitutoyo Corporation System and method utilizing multi-point autofocus to align an optical axis of an optical assembly portion to be normal to a workpiece surface
EP4351401A1 (en) * 2021-06-07 2024-04-17 Alcon Inc. Optical axis calibration of robotic camera system
US20230228882A1 (en) * 2022-01-18 2023-07-20 Torrey Pines Logic, Inc. Laser rangefinder with integrated imaging system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0631666A (ja) * 1992-07-15 1994-02-08 Fujitsu Ltd 知能ロボット
US6320641B1 (en) * 1997-04-01 2001-11-20 Agris-Schoen Vision Systems, Inc. High-precision-resolution image acquisition apparatus and method
JP2015182144A (ja) * 2014-03-20 2015-10-22 キヤノン株式会社 ロボットシステムおよびロボットシステムの校正方法

Also Published As

Publication number Publication date
CN115890638A (zh) 2023-04-04
JP7263501B2 (ja) 2023-04-24
US20230097932A1 (en) 2023-03-30
US11958200B2 (en) 2024-04-16

Similar Documents

Publication Publication Date Title
US10805546B2 (en) Image processing system, image processing device, and image processing program
US9604363B2 (en) Object pickup device and method for picking up object
JP5911934B2 (ja) 輪郭線計測装置およびロボットシステム
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN108700408B (zh) 三维形状数据及纹理信息生成系统、方法及拍摄控制方法
CN105547153B (zh) 基于双目视觉的插件元件针脚视觉定位方法及装置
TW201618913A (zh) 機器人及機器人系統
JP2009269110A (ja) 組立装置
CN111278608B (zh) 用于3d视觉机器人系统的校准物品
JP6565175B2 (ja) ロボットおよびロボットシステム
JP7191309B2 (ja) カメラを用いるレーザープロジェクションマーキングの自動ガイド・位置決め及びリアルタイム補正方法
CN112230345A (zh) 光纤自动耦合对准设备和方法
JP2020047049A (ja) 画像処理装置及び画像処理方法
US11328409B2 (en) System and method utilizing multi-point autofocus to align an optical axis of an optical assembly portion to be normal to a workpiece surface
US20230179732A1 (en) Image capturing apparatus, image processing apparatus, image processing method, image capturing apparatus calibration method, robot apparatus, method for manufacturing article using robot apparatus, and recording medium
WO2022067163A1 (en) Machine vision system and method with on-axis aimer and distance measurement assembly
CN111780715A (zh) 一种视觉测距方法
JP2018194542A (ja) 画像処理システム、画像処理装置および画像処理プログラム
JP7263501B2 (ja) 自動ロボットアームシステム、及びそのロボットアームとコンピュータビジョンとの間の協調方法
KR20130061567A (ko) 무정지 검사를 위한 로봇 시스템 및 그 방법
JP5740648B2 (ja) 画像測定装置、オートフォーカス制御方法及びオートフォーカス制御プログラム
TWI776694B (zh) 自動化機械手臂系統與機械手臂與其電腦視覺之間的協調方法
TW201447289A (zh) 光電透鏡檢測裝置及檢測方法
US20170328706A1 (en) Measuring apparatus, robot apparatus, robot system, measuring method, control method, and article manufacturing method
JP5418490B2 (ja) 位置決め制御装置およびこれを備えた位置決め装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7263501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150