JP6579498B2 - 自動化装置及び位置検出装置 - Google Patents

自動化装置及び位置検出装置 Download PDF

Info

Publication number
JP6579498B2
JP6579498B2 JP2017204049A JP2017204049A JP6579498B2 JP 6579498 B2 JP6579498 B2 JP 6579498B2 JP 2017204049 A JP2017204049 A JP 2017204049A JP 2017204049 A JP2017204049 A JP 2017204049A JP 6579498 B2 JP6579498 B2 JP 6579498B2
Authority
JP
Japan
Prior art keywords
work
workpiece
coordinate system
camera
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017204049A
Other languages
English (en)
Other versions
JP2019076972A (ja
Inventor
泰史 吉浦
泰史 吉浦
裕志 阿武
裕志 阿武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2017204049A priority Critical patent/JP6579498B2/ja
Priority to KR1020180117412A priority patent/KR102226986B1/ko
Priority to US16/164,745 priority patent/US10974393B2/en
Publication of JP2019076972A publication Critical patent/JP2019076972A/ja
Application granted granted Critical
Publication of JP6579498B2 publication Critical patent/JP6579498B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q7/00Arrangements for handling work specially combined with or arranged in, or specially adapted for use in connection with, machine tools, e.g. for conveying, loading, positioning, discharging, sorting
    • B23Q7/04Arrangements for handling work specially combined with or arranged in, or specially adapted for use in connection with, machine tools, e.g. for conveying, loading, positioning, discharging, sorting by means of grippers
    • B23Q7/046Handling workpieces or tools
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37067Calibrate work surface, reference markings on object, work surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37097Marker on workpiece to detect reference position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Description

開示の実施形態は、自動化装置、及び位置検出装置に関する。
特許文献1には、コンベヤにより運搬される物体に対してロボットが作業を行うロボットシステムにおいて、コンベヤ上での物体の位置を定義するための座標系として、ロボットのベース座標系に対し所定の関係を有するコンベヤ座標系を設定する方法が開示されている。
特開2017−47511号公報
しかしながら、上記従来技術のように本来個別に設定されているロボットの座標系と他の機械座標系との間の座標間補正には熟練した技術や高い専門知識、また特殊な治具や多数の作業工程が必要であり非常に煩雑となっていた。
本発明はこのような問題点に鑑みてなされたものであり、機構に対する補正作業等が不要な自動化装置、及び位置検出装置を提供することを目的とする。
上記課題を解決するため、本発明の一の観点によれば、作業可能な空間範囲内に設定された自機械座標系の任意の位置に存在するワークに対して所定作業が可能な機構と、前記自機械座標系に対して任意かつ既知である設置位置と設置姿勢に可動な構成であって、前記ワークを含む対象環境の2次元画像を光学的に撮像するカメラと、前記カメラの設置位置と設置姿勢を反映した機械学習プロセスでの学習内容に基づく前記2次元画像の画像認識により前記自機械座標系中における前記ワークの現在位置情報を検出可能な位置検出部と、前記自機械座標系中で移動する同一のワークに対して前記位置検出部が異なる検出タイミングで検出した複数の現在位置情報に基づいて前記機構の作業位置を指令する作業制御部と、を有する自動化装置が適用される。
また本発明の別の観点によれば、所定の自機械座標系に対して任意かつ既知である設置位置と設置姿勢に可動な構成であって、前記自機械座標系の任意の位置に存在するワークを含む対象環境の2次元画像を光学的に撮像するカメラと、前記カメラの設置位置と設置姿勢を反映した機械学習プロセスでの学習内容に基づく前記2次元画像の画像認識により前記自機械座標系中における前記ワークの現在位置情報を検出可能な位置検出部と、を有する位置検出装置が適用される。
本発明によれば、機構に対する補正作業等が不要となる。
実施形態の自動化装置の概略的なシステムブロック構成の一例を表す図である。 コントローラが備える位置制御部及び作業制御部のソフトウェアブロック図の一例を表す図である。 カメラが撮像した画像情報の一例を表す図である。 ワークの直線等速度移動の動作規則を表す図である。 移動先算出部が算出するワークの移動先位置と到達タイミングを表す図である。 現在位置情報の検出に失敗した場合の対処手法を説明する図である。 ワークの搬送方向がカメラ座標系に傾斜している場合の画像情報の一例を表す図である。 外観形状と動作規則がそれぞれ異なる複数のワークを撮像した場合の画像情報の一例を表す図である。 現在位置情報をそのまま作業位置指令として出力する場合の作業機構の動作の一例を表す図である。 センサ位置検出部が実装するニューラルネットワークモデル概略図の一例を表す図である。 カメラの多様な設置位置と設置姿勢の例を表す図である。 自機械座標系におけるワークの現在位置情報を出力可能なニューラルネットワークモデル概略図の一例を表す図である。
以下、実施の形態について図面を参照しつつ説明する。
<自動化装置の概略構成>
図1は、本実施形態の自動化装置の概略的なシステムブロック構成の一例を表している。本実施形態の例に示す自動化装置は、ベルトコンベアで搬送移動される複数のワークに対し、それぞれの上面に個別にスタンプで押印するシステムである。図1において自動化装置1は、作業機構2と、カメラ3と、コントローラ4とを有している。
作業機構2は、図示する本実施形態の例では、3つの垂直回転軸と1つの垂直昇降軸を備えたマニプレータアーム(スカラ機構、水平多軸型機構)である。そのアーム先端部には、ワークWの表面に製造年月日などの所定の印字内容を押印可能なスタンプで構成されたエンドエフェクタ21が装着されている。図示する例では、ワークWはその軸方向を鉛直方向に向けて載置された円筒形状の缶であり、エンドエフェクタ21のスタンプは当該ワークWの円形上平面より外径が少し小さい円形状のスタンプである。
当該作業機構2に実行させる作業は、上記ワークWの円形上平面の表面におよそ同軸的な配置でスタンプ21を押印させることである。このため、作業機構2が実行する作業内容としては、作業対象であるワークWの円形上平面の中心位置を作業位置とし、その作業位置に対して円形のスタンプ21の中心位置(アーム先端部の基準位置)を水平方向で合わせるようアームを移動させた後、スタンプ21を降下させて押印する作業を行う。この作業は、当該作業機構2の機械的構造により規定される作業可能空間範囲(特に図示せず)内で行われるものであり、その制御は、作業可能空間範囲内で当該作業機構2の機械的配置を基準に設定された3軸直交座標の機械座標系XYZ(以下において「自機械座標系XYZ」という)上における座標位置の演算処理に基づいて行われる。
また、本実施形態の例では、当該作業機構2の基台22にキャスター23が設けられており、作業機構2全体が例えばユーザの手作業などによって任意の位置に移動可能な構成となっている。なお、ワークWを搬送移動させるベルトコンベア5については、上記作業機構2とは別体で構成されてあらかじめ作業現場の床面に固定的に設置(搬送可能な構成で固定設置したものでもよい)されたものであり、そのベルトの搬送方向、搬送速度、搬送高さも含めた機械的、制御的な仕様については未知のものであるとする。
カメラ3は、この例では光学的に2次元ピクセル列の画像情報(検知情報)を撮像可能なセンサである。このカメラ3は、上記作業機構2の作業可能空間範囲を上方から鉛直方向に見下ろす位置と姿勢で作業機構2に固定されており、その作業可能空間範囲の全体又は少なくとも一部を撮像可能となっている。
コントローラ4は、上記カメラ3で撮像した画像情報に基づいて、作業機構2の作業に関する各種処理を行い作業機構2に駆動電力を供給する。このコントローラ4は、位置検出部41と、作業制御部41と、モーション制御部43と、サーボアンプ44とを有している。
位置検出部41は、本実施形態の例では、上記カメラ3で撮像した画像情報を画像認識することで、その時点で上記作業機構2の作業可能空間範囲内に存在するワークWの現在位置情報を検出する。本実施形態の例において、このワークWの現在位置情報は、当該ワークWに対して作業機構2が目的としている作業(この例の押印作業)を実行し得る作業基準点の位置(つまり上記作業位置と成り得る位置)に設定されている。つまり本実施形態の例では、円筒形状にあるワークWにおいてその円形上平面の表面中心点の位置が当該ワークWの現在位置情報として検出される。そして当該位置検出部41は、この現在位置情報を自機械座標系XYZ上の座標位置(上記XYZ座標系の各軸上の数値情報)として出力する。
なお、ワークWの現在位置情報の設定は、作業機構2が実行する作業内容によって変わり得るものであり、例えば把持作業を行う場合には当該ワークWの重心位置等が適切となり、また例えば吹き付け塗装作業を行う場合には当該ワークWの塗装箇所表面から所定距離離間した位置が適切となる(特に図示せず)。このため、作業機構2の作業内容によっては、ワークWの現在位置情報は実物理世界における当該ワークWの表面又は占積空間内に限られず、当該ワークWの占積空間の外に設定されてもよい。もしくは、ワークWの表面又は占積空間内にその存在基準となる現在位置情報を設定し、それに対して所定の位置関係にある作業基準点を別途設定してもよい。
また当該位置検出部41は、画像情報内に複数のワークWが撮像されている場合には、それぞれのワークWの現在位置情報を個別に検出する。なお、この位置検出部41における内部処理構成については、後の図2において詳述する。
作業制御部42は、上記位置検出部41で検出されたワークWの現在位置情報に基づいて、上記作業機構2のエンドエフェクタ21(スタンプ)を移動して作業を実行させる位置(作業位置)としての作業位置指令を出力する。この作業位置指令もまた、自機械座標系XYZ上の座標位置(上記XYZ座標系の各軸上の数値情報)として出力される。なお、この作業制御部42における内部処理構成についても、後の図2において詳述する。
モーション制御部43は、上記作業制御部42から入力された作業位置指令に基づいて、作業機構2のエンドエフェクタ21を当該作業位置指令の位置に移動させるために必要となる作業機構2の各駆動軸モータ(図示省略)の目標回転角度等を演算し、対応するモータ位置指令を出力する。このような目標回転角度の演算は、公知のいわゆる逆キネマティック演算の手法により行えばよく、ここではその詳細な説明を省略する。
サーボアンプ44は、上記モーション制御部43から入力されたモータ位置指令に基づいて、作業機構2の各駆動軸モータ(図示省略)を駆動制御する駆動電力の給電制御を行う。
なお、当該コントローラ4は、その全体が作業機構2の基台22内部に収納されて一体に移動可能としてもよいし、全体又は一部が作業機構2の筐体外に設けられて可撓性ケーブル等を介して情報送受可能に接続されてもよい。
<本実施形態の特徴>
現在利用されている一般的な自動化装置は、予め機構の機械的配置を基準に設定された自機械座標系XYZ上の任意の座標位置まで所定作業を実行するエンドエフェクタを移動させる(さらに任意の姿勢方向に向かせる)よう数値制御される。
しかし工場などの実作業現場では、作業機構2(とそのエンドエフェクタ21)に作業させる対象のワークWが、本実施形態の例のように作業機構2と別体に構成されたベルトコンベア5上で搬送移動される等のように、上記自機械座標系XYZとは無関係に設定された他の機械の機械座標系(以下において「他機械座標系」という;特に図示せず)上における所定の動作規則(モーション)で移動する場合が多くある。
このため、作業機構2を作業現場に設置する際には、ワークWの移動基準となる他機械座標系と当該作業機構2の自機械座標系XYZとの間の配置誤差を機械的又は座標演算的に補正(較正)する必要があり、さらに作業機構2に対して上記所定動作規則に基づくワークWの移動に対応した目標位置指定作業が必要となっていた。しかしながら、このような座標間補正や目標位置指定作業には熟練した技術や高い専門知識、また特殊な治具や多数の作業工程が必要であり非常に煩雑となっていた。また一方、近年では本実施形態の例の作業機構2のようにそれ自体が移動可能に構成され、多様な作業現場への設置と撤去を高い頻度で繰り返す利用方法が提案されており、どのような作業現場でも容易に作業を開始できる汎用性、適応性が要望されていた。
これに対し本実施形態では、作業可能空間範囲内に設定された自機械座標系XYZの任意の位置に存在するワークWに対して所定作業が可能な作業機構2と、自機械座標系XYZに存在するワークWを光学的に検知するカメラ3と、カメラ3の検知情報(画像情報)に基づいて、その時点の自機械座標系XYZ中におけるワークWの現在位置情報を検出可能な位置検出部41と、自機械座標系XYZ中で移動する同一のワークWに対して位置検出部41が異なる検出タイミングで検出した複数の現在位置情報に基づいて作業機構2の作業位置を指令する作業制御部42と、を有している。
これにより、作業制御部42は、位置検出部41が検出した複数の現在位置情報に基づいて自機械座標系XYZにおけるワークWの移動動作に対応した作業機構2の作業位置を指令でき、当該作業機構2のエンドエフェクタ21等にその作業位置でワークWを捕捉させることができる。これは、ワークWの移動に関してその所定動作規則を自動的に認識するだけであり、外部の他機械座標系との間の配置誤差を考慮する必要がない。このため、作業機構2に対する所定動作規則に対応した上記目標位置指定作業や座標間補正の作業を不要とし、ワークWが移動する作業環境への作業機構2の適応性を向上させることができる。以上の機能を実現するために必要な手法について、以下に順次説明する。
<位置検出部と作業制御部の詳細構成>
図2は、上記コントローラ4が備える位置制御部及び作業制御部42のソフトウェアブロックの一例を表している。この図2において、位置検出部41は、センサ位置検出部411と、座標変換部412とを備えている。
上記カメラ3は、作業機構2の本体とは別体で構成された光学センサであり、撮像する画像情報(この例のワークを含む対象環境の2次元画像)は当該カメラ3に独自に設定されたカメラ座標系XcYc(センサ座標系)上の2次元ピクセル列データとして取得される。
そこでセンサ位置検出部411は、カメラ3が撮像した画像情報に基づいて、その画像情報内に撮像されているワークWの現在位置情報を当該カメラ3に個別に設定されたカメラ座標系XcYcにおける位置情報として検出する。このセンサ位置検出部411の内部処理については、公知の画像認識アルゴリズムを適用すればよく、ここではその詳細な説明を省略する。(そのうち、深層学習による機械学習プロセスで学習したニューラルネットワークを適用する場合の具体例については、後に詳述する。)
そして座標変換部412は、上記センサ位置検出部411が検出したカメラ座標系XcYcにおけるワークWの現在位置情報を、カメラ3の位置と姿勢に基づいて自機械座標系XYZにおける現在位置情報に変換して出力する。なお本実施形態の例では、自機械座標系XYZにおけるカメラ3の設置位置(Cp(Xp、Yp、Zp):図1参照)と、その撮像方向を含む設置姿勢(Dc:図1参照)は既知の値で固定されている。これにより、当該座標変換部412における処理内容は、公知の線形写像の手法によってカメラ座標系XcYcから自機械座標系XYZへの座標変換を行えばよく、ここではその詳細な説明を省略する。
そして本実施形態では、上記カメラ3が所定の時間間隔で周期的に画像情報を撮像し、上記位置検出部41はその撮像周期に対応した異なる検出タイミングで、移動する同一のワークWについての複数の現在位置情報を時系列的に検出する。
また図2において、作業制御部42は、ベクトル算出部421と、移動先算出部422とを備えている。
ベクトル算出部421は、上記位置検出部41が検出した複数の現在位置情報に基づいて、自機械座標系XYZ中で移動する当該ワークWの単位時間当たりの移動速度ベクトルを算出する。この移動速度ベクトルは、ワークWの移動方向も含む情報であり、自機械座標系XYZ上の数値情報として出力される。
そして移動先算出部422は、同一のワークWに対応して検出された複数の現在位置情報のうちのいずれか1つを基点として、算出された移動速度ベクトルに基づき当該ワークWの移動先位置を算出する。この移動先位置は、すなわち将来的に当該ワークWが通過する移動経路上の1点の位置であり、移動先算出部422は当該ワークWが当該移動先位置に到達する到達タイミングも併せて算出する。
そして作業制御部42は、自機械座標系XYZにおける上記移動先位置を作業位置指令として出力する一方、特に図示しない別途の制御経路を介して作業機構2のエンドエフェクタ21の作業を上記到達タイミングで開始させる。本実施形態の例においては、エンドエフェクタ21の作業がすなわちスタンプを降下させて押印する作業であるため、上記到達タイミングをエンドエフェクタ21の作業開始タイミングとしてスカラ機構の昇降軸に対し降下動作指令を出力することになる。
<作業制御内容の具体例>
ここで、図3〜図7を参照しつつ、作業制御部42における作業制御内容を具体的に説明する。なお以下の図3〜図6においては、説明を簡略化する便宜上、自機械座標系XYZのX軸方向とカメラ座標系XcYcのXc軸方向とベルトコンベア5の搬送方向が全て一致しつつ、ベルトコンベア5を真上から見下ろす位置、姿勢でカメラ3が固定されているものとし、またベルトコンベア5の搬送面(ベルト上面)の床面からの高さ寸法(自機械座標系XYZにおける搬送面の高さ位置、搬送面とカメラ位置との間の離間距離)が既知であることを前提として説明する。これにより、自機械座標系XYZにおけるワークWの移動に関しては、X軸上の座標値で一元化して単純に扱うことができる。また画像情報の図示においては、必要に応じて現在時刻で撮像された画像(現在画像)と併せ、過去に撮像された画像(過去画像)や将来的に撮像される画像(将来画像)も重複して表示するものとする。
図3は、カメラ3が撮像した画像情報の一例を表している。この図示する例において、ベルトコンベア5はワークWを左から右へ向かう方向(カメラ座標系XcYcのXc軸正方向)に直線的に等速度で搬送し、カメラ3はその移動する同一のワークWを所定周期で撮像する。このため、最初の画像情報中では左端に位置しているワークW(図中の実線で表される現在画像)が、その後に順次撮像される画像情報中では右方向で等間隔な配置で撮像される(図中の破線で表される将来画像)。
このようなワークWの直線等速度移動の動作規則(モーション)は図4のように表せる。この図4おいて、最初(T0)に最も左端のPos0の位置(図中の点線で表される過去画像)で撮像されたワークWは、その後カメラ3の撮像時間間隔ΔTの経過後(T1)にPos1の位置(図中の実線で表される現在画像)で撮像され、その後に順次Pos2、・・・、PosNの位置(図中の破線で表される将来画像)で撮像される(T2、・・・、TN)。上記センサ位置検出部411では、撮像された各画像情報それぞれにおいてワークWの外観を画像認識し、カメラ座標系XcYc中におけるそれらの現在位置情報(この例のワークWの中心位置)を検出する。そして上記座標変換部412がカメラ座標系XcYcの各現在位置情報を自機械座標系XYZの各現在位置情報に変換する。
作業制御部42のベクトル算出部421は、2つ目の画像情報からPos1の現在位置情報が検出された時点T1(現在時刻)で、直前T0のPos0の現在位置情報との差分から移動速度ベクトルVを算出する。この例では自機械座標系XYZにおけるPos1のX軸座標位置からPos0のX軸座標位置を差し引いた位置偏差ベクトルが移動速度ベクトルVとなる。この移動速度ベクトルVは、カメラ3の撮像時間間隔ΔT(センサの検知周期)を単位時間とした当該ワークWの移動速度と移動方向を表している。なお、この移動速度ベクトルVは、2つ目以降の現在位置情報が検出された際に算出することができ、最新の現在位置情報からその直前の現在位置情報を差し引いた位置偏差ベクトルから求めることができる。
また、移動速度ベクトルVの単位時間については、上述したカメラ撮像時間間隔ΔTに限られず、それよりも一般的に時間間隔が短い作業制御部42の制御サイクル(作業制御部の制御周期)Δtを移動速度ベクトルV′の単位時間としてもよい。この場合には、上記位置偏差ベクトルを単位時間比(ΔT/Δt)で割ることで算出できる。
そして上記移動先算出部422は、図5に示すように、現在時刻T1からカメラ撮像時間間隔ΔTが経過した時点T2を到達タイミングとして、現在時刻のPos1の現在位置情報に上記移動速度ベクトルVを加算したPos2の位置にワークWが到達することを予測し、対応する作業位置指令を出力する。なお、その時点(現在時刻T1)における作業機構2のエンドエフェクタ21の位置とその移動可能速度を考慮して、上記到達タイミングT2までに上記のPos2の位置へエンドエフェクタ21を移動させることができないと判断した場合には、それ以降で間に合うと判断できるPosNの位置とその到達タイミングTNに対応する作業位置指令を出力する。この場合には、時間間隔の短い作業制御部42の制御サイクルΔtを単位時間とした移動速度ベクトルV′を用いて作業位置指令を出力することで、制御精度が向上するとともに作業開始までの時間を短縮化できる。
また、図6に示すように、ワークWの上方に作業機構2のアームが重複することでカメラ3がワークWを撮像できず、その時点のワークWの現在位置情報の検出に失敗する場合がある。この場合には、それ以前に同一のワークWに対して検出に成功した他の複数の現在位置情報と、それらに基づいて算出した移動速度ベクトルVとを用いて移動先位置とその到達タイミングを算出すればよい。例えば、図6中における現在時刻T2のPos2の位置でワークW(図中の一点鎖線で表される現在消失画像)を撮像できなかった場合でも、それ以前のPos0とPos1の間の位置偏差ベクトルから求めた移動速度ベクトルVを用いて、現在位置情報を検出できた直近のPos1を基点として移動先位置と到達タイミングを算出できる。具体的には、Pos1の位置に移動速度ベクトルVを例えば2回加算した位置を移動先位置とし、現在時刻T2から単位時間(カメラ撮像時間間隔ΔT)だけ経過した時点(T3)を到達タイミングとすればよい。なお、上記の原因でワークWの現在位置情報の検出に失敗したこと自体は、自機械座標系XYZにおける作業機構2のアームの位置とそれまでに予測されたワークWの位置との間の配置関係から容易に認知できる。しかし、それ以外の外的な要因(例えば瞬間的にカメラ3の撮像方向が遮られる等)による場合でも、上記の対処手法でワークWの移動先位置と到達タイミングを算出できる。
以上に説明した作業制御内容は、自機械座標系XYZのX軸方向とカメラ座標系XcYcのXc軸方向とベルトコンベア5の搬送方向が全て一致していることを前提としていた。しかしながら、実際の作業現場(特に本実施形態の例のように作業機構2自体が移動可能な構成である場合)では、例えば図7の画像情報例に示すように、ベルトコンベア5の搬送方向が自機械座標系XYZ及びカメラ座標系XcYcに対して傾斜している場合の方が多い(図7に示す例では自機械座標系XYZとカメラ座標系XcYcのX,Y各軸方向が一致)。しかしこの場合でも、移動速度ベクトルVをX軸方向とY軸方向の各成分Vx、Vyで併せて算出することで、上記と同様の手法によりワークWの移動先位置と到達タイミングを算出し、対応する作業位置指令を出力できる。
また、自機械座標系XYZとカメラ座標系XcYcとの間が傾斜する配置関係である場合であっても(特に図示せず)、自機械座標系XYZ中におけるカメラ3の設置位置(Cp(Xp、Yp、Zp):図1参照)と、その撮像方向を含む設置姿勢(Dc:図1参照)が既知であれば、座標変換部412がその設置位置Cpと設置姿勢Dcを反映して座標変換を行うことで、自機械座標系XYZにおけるワークWの現在位置情報を検出できる。またカメラ3の設置位置Cpと設置姿勢Dcが可動な構成であっても、エンコーダやリニアスケールなどのセンサにより自機械座標系XYZにおけるカメラ3の設置位置Cpと設置姿勢Dcを検出できれば、同様にそれらを反映した座標変換が可能である(特に図示せず)。
なお、ベルトコンベア5の搬送面(ベルト上面)の床面からの高さ寸法(自機械座標系XYZにおける搬送面の高さ位置、搬送面とカメラ位置との間の離間距離)が未知である場合に対しては、例えばカメラ3に別途設けたレーザースキャナ(特に図示せず)等で搬送面とカメラ位置との間の離間距離を検出し、それに基づいて座標変換部412で自機械座標系XYZにおけるワークWの高さ位置(Z軸方向座標位置)も含めた現在位置情報を検出すればよい。
また、画像情報中に複数のワークWが撮像されている場合には、位置検出部41が各ワークWを個別に識別してそれぞれの現在位置情報を検出し、作業制御部42が各ワークWのそれぞれに対して順に作業位置指令を出力すればよい(特に図示せず)。
<本実施形態による効果>
以上説明したように、本実施形態の自動化装置1は、カメラ3が撮像した画像情報に基づいて、その時点の自機械座標系XYZ中におけるワークWの現在位置情報を検出可能な位置検出部41と、自機械座標系XYZ中で移動する同一のワークWに対して位置検出部41が異なる検出タイミングで検出した複数の現在位置情報に基づいて作業機構2の作業位置指令を出力する作業制御部42と、を有している。
これにより、作業制御部42は、位置検出部41が検出した複数の現在位置情報に基づいて自機械座標系XYZにおけるワークWの移動動作に対応した作業機構2の作業位置を指令でき、当該作業機構2のエンドエフェクタ21(スタンプ)等にその作業位置でワークWを捕捉させることができる。これは、ワークWの移動に関してその動作規則を自動的に認識するだけであり、外部の他機械座標系(例えばベルトコンベア5に設定された機械座標系)との間の配置誤差を考慮する必要がない。このため、作業機構2に対するワークWの動作規則に対応した目標位置指定作業や座標間補正の作業を不要とし、ワークWが移動する作業環境への適応性を向上させることができる。
なお、本実施形態ではワークWの個体ごとにその動作規則(モーション:移動方向、移動速度、移動タイミング)を認識できるため、例えば図8に示すように、個別に異なる動作規則で作業機構2の作業可能空間範囲を通過する複数のワークWに対しても、作業機構2がそれぞれのワークWを捕捉することができる。また図示するように、それぞれ外観形状が異なる複数のワークWに対しても、予め位置検出部41に各ワークWの外観形状を登録(学習)しておくことで、当該位置検出部41が各ワークWを個別に画像認識しそれらの現在位置情報を検出させることができる。
また、本実施形態では特に、作業制御部42は、位置検出部41が同一のワークWに対して異なる検出タイミングで検出した複数の現在位置情報に基づいて自機械座標系XYZ中で移動する当該ワークWの単位時間当たりの移動速度ベクトルVを算出するベクトル算出部421と、いずれかの現在位置情報を基点として移動速度ベクトルVに基づき当該ワークWの移動先位置を算出する移動先算出部422と、を有しており、算出した移動先位置を作業機構2の作業位置として指令する。これにより、その時点の移動速度ベクトルVに基づいてワークWが将来的に移動する経路上の移動先位置を予測でき、その移動先位置に作業機構2のエンドエフェクタ21等を移動させてワークWを捕捉させることができる。
また、本実施形態では特に、移動先算出部422は、ワークWの移動先位置への到達タイミングも算出し、作業制御部42は、到達タイミングを作業機構2(エンドエフェクタ21)の作業開始タイミングとして指令する。これにより、移動するワークWに対するエンドエフェクタ21等での印刷処理、把持動作、又は加工処理などといった瞬時的な同期作業も正確なタイミングで行うことができる。
また、本実施形態では特に、移動先算出部422は、位置検出部41がワークWの現在位置情報の検出に失敗した場合でも、検出に成功した他の現在位置情報を基点として移動先位置を予測する。これにより、例えばワークWに作業機構2の一部が重なるなどによりカメラ3が一時的にワークWを見失った場合でも、他の現在位置情報で補完して移動先位置を予測できる。
また、本実施形態では特に、ベクトル算出部421は、カメラ3のカメラ撮像時間間隔ΔTを単位時間として移動速度ベクトルVを算出する。これにより、ワークWの現在位置情報の検出周期で移動先位置や到達タイミングを算出でき、エンドエフェクタ21等でのワークWの捕捉も同じタイミングでカメラ3の撮像により確認できる。
また、本実施形態では特に、ベクトル算出部421は、作業制御部42の制御周期を単位時間として算出してもよい。この場合には、カメラ3のカメラ撮像時間間隔ΔTより比較的短い制御周期で移動速度ベクトルVを算出でき、高い分解精度で移動先位置(例えば上記図5中のt5、t6、t7などの時点の位置)や到達タイミングを算出できる。
また、本実施形態では特に、センサとして、ワークWを含む対象環境の2次元画像を光学的に撮像するカメラ3を有している。これにより、2次元画像に基づく画像認識で現在位置情報の検出が可能となる。
なお、カメラ3については、低歪の広角レンズを備えた高解像度カメラを利用することで、より広い視野角で比較的遠方に位置するワークWでもその存在と現在位置情報を迅速に検出できるため好適である。
また、本実施形態では特に、位置検出部41は、2次元画像に基づく画像認識により自機械座標系XYZにおけるワークWの現在位置情報を検出する。これにより、多様な外観(形状、色、模様)のワークWにも柔軟に対応してその位置や姿勢を検知できる。
また、本実施形態では特に、カメラ3は、自機械座標系XYZにおける設置位置Cpと設置姿勢Dcが既知(既知であれば可動式でも可能)であり、位置検出部41は、カメラ3が撮像した画像情報に基づいてカメラ3に個別に設定されたカメラ座標系XYZにおける現在位置情報を検出するセンサ位置検出部411と、カメラ座標系XcYcにおける現在位置情報を、カメラ3の設置位置Cpと設置姿勢Dcに基づいて自機械座標系XYZにおける現在位置情報に変換する座標変換部412とを有している。これにより、カメラ3のカメラ座標系XcYcから自機械座標系XYZへの座標変換処理も自動的に行い、カメラ3の画像情報から作業機構2の作業制御に利用可能なワークWの現在位置情報を容易に検出できる。
また、本実施形態では特に、作業機構2は、その全体が移動可能に構成され、自機械座標系XYZは、作業機構2の機械的配置を基準に設定されている。これにより、多様な作業現場への作業機構2の任意な設置と撤去を簡易に行うことができ、このような汎用性の高い作業機構2の利用形態に対して本実施形態の作業機構制御の適用が特に好適である。
<変形例>
なお、以上説明した実施形態は、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。
<変形例1:現在位置情報をそのまま作業位置として追従制御する場合>
上記実施形態では、同一のワークWに対して時系列的に得られた複数の現在位置情報から当該ワークWの動作規則に相当する移動速度ベクトルVを求め、それに基づいて予測される当該ワークWの将来的な移動先位置と到達タイミングを作業機構2の作業位置指令として出力していたが、これに限られない。例えば、作業制御部42は、位置検出部41が検出した現在位置情報をそのまま作業機構2の作業位置として逐次指令してもよい。この場合でも、図9に示すように、作業機構2は同一のワークWに対して逐次検出された現在位置情報をそのまま追従するようエンドエフェクタ21等を移動させることができ、その結果作業機構2のエンドエフェクタ21にワークWを捕捉させることができる。
<変形例2:時間変化する移動速度や移動方向にも対応する場合>
上記実施形態では、ベルトコンベア5での搬送によりワークWが直線等速度の動作規則で移動する場合への適用例を説明したが、他にもワークWの動作規則が時間変化する場合にも適用できる。この場合には、時系列的に連続する2つ以上の移動速度ベクトルVを算出し、それらの間の時間変化率を推定して将来的に現れる移動速度ベクトルVを算出し、それに基づいた移動先位置(移動軌跡)と到達タイミングを算出すればよい。具体的には、ベクトル算出部421が、移動速度ベクトルVの時間変化率も算出し、移動先算出部422が、それまでに検出されたいずれかの現在位置情報を基点とし移動速度ベクトルVと時間変化率に基づいて移動先位置と到達タイミングを算出すればよい。これにより、例えば自由落下や円周軌道などのような移動速度や移動方向が時間変化するワーク移動の動作規則も自動的に認識でき、それに対応した作業機構2の捕捉制御が可能となる(特に図示せず)。
<変形例3:センサとして距離測定センサを有する場合>
上記実施形態では、ワークWの存在自体を検知するためのセンサとして2次元画像を撮像するカメラ3を備えていたが、これに限られない。他にも、特に図示しないが、検知情報として当該ワークWを含む対象環境の外周表面における計測点との離間距離を計測するレーザースキャナや超音波センサなどの距離測定センサをセンサとして備えてもよい。この場合、レーザースキャナ又は超音波センサが作業機構2の作業可能空間範囲内(自機械座標系XYZ)を走査して多数の計測点との離間距離を計測し、それらの離間距離データの集合から特定の形状にあるワークWの現在位置情報を検出する。これにより、カメラ3より簡易な構成で、また比較的暗い周囲環境でもワークWの現在位置情報の検出が可能となる。なお、上述したようにカメラ3と併用して、自機械座標系XYZにおける当該カメラ3とワークWとの間の相対的な配置関係の検出に利用してもよい。
<変形例4:位置検出を深層学習で行う場合>
上記実施形態におけるセンサ位置検出部411の画像認識処理を、深層学習による機械学習プロセスで学習したニューラルネットワークWで実装する場合の具体的な一例を以下に説明する。図10は、センサ位置検出部411が実装するニューラルネットワークモデル概略図の一例を表している。
図10に示すセンサ位置検出部411のモデル概略図では、カメラ3から入力された2次元ピクセル列データである画像情報に対して、予め学習した特定のワークWの外観形状を認識し、さらにカメラ座標系XcYc(画像情報の座標系)において予め学習した当該ワークWの作業基準点となる現在位置情報を出力するよう設計、調整されている。その出力される現在位置情報は、機械学習プロセス(深層学習)での学習内容に基づくものであり、当該画像情報中に含まれているワークWの外観(形状、姿勢)に対応して適切に作業(上記実施形態の例のスタンプ押印)を遂行できると推定した作業位置である。すなわち、このセンサ位置検出部411のニューラルネットワークは、画像情報に含まれるワークWの外観形状パターンと現在位置情報(作業可能位置)との相関を表す特徴量を学習している。
以上の基本仕様にあるニューラルネットワークにおいては、例えば入力層の直近をいわゆる畳み込み層とプーリング層の組み合わせである畳み込みニューラルネットワーク(特に図示せず)で構成することで柔軟なパターンの認識が可能となる。また例えば、出力層の直近を最適値演算に適した全結合層(特に図示せず)で構成することも好適である。
このニューラルネットの学習手法としては、いわゆる教師あり学習と強化学習のいずれによっても行うことが可能である。例えば教師あり学習を行う場合には、ワークWをカメラ座標系XcYc中の既知の位置に配置した画像情報(実撮像画像でもよいしコンピュータ上のシミュレーション画像でもよい)を入力データとし、その既知のワーク位置を出力データとした組み合わせの教師データを用いればよい。このような教師データを多数用いて、各ニューラルネットワークの入力層と出力層の間の関係性が成立するよう各ノードどうしをつなぐ各エッジの重み係数を調整するいわゆるバックプロパゲーション処理(誤差逆伝搬処理)により学習を行う。なお、このようなバックプロパゲーションの他にも、いわゆる積層オートエンコーダ、ドロップアウト、ノイズ付加、及びスパース正則化などの公知の多様な学習手法を併用して処理精度を向上させてもよい。
また強化学習を行う場合には、ランダムな位置に配置されたワークWに対して作業機構2にランダムな作業位置で作業をさせた際の誤差量(評価値)を検出し、その誤差量が少なくなるように(将来的に評価値に基づく報酬が最大に得られるように)ニューラルネットワークのバックプロパゲーション処理を行う。作業位置のランダム性を逐次調整しながらこのような学習作業を繰り返すことで、センサ位置検出部411のニューラルネットワークはワークWのパターン認識とそれに対する適切な作業位置、つまり現在位置情報を出力するための特徴量を学習できる。このような強化学習は、いわゆる公知のQ学習アルゴリズムを用いればよく、ここではその詳細な説明を省略する。
なお、センサ位置検出部411の処理アルゴリズムは、図示したニューラルネットワークを用いた深層学習(ディープラーニング)によるもの以外にも、例えばサポートベクトルマシンやベイジアンネットワーク等を利用した他の処理アルゴリズム(特に図示せず)を適用してもよい。
また以上のセンサ位置検出部411の学習は、図11に示すように、ワークWに対して上方から見下ろす設置位置Cp1(Xp1、Yp1、Zp1)と設置姿勢Dc1のカメラ3で撮像した画像情報に限られず、ワークWに対して傾斜した設置位置Cp2(Xp2、Yp2、Zp2)と設置姿勢Dc2のカメラ3で撮像した画像情報も併せて学習してもよい。これにより、任意の設置位置Cpと設置姿勢Dcにあるカメラ3で撮像した画像情報でも良好な精度でワークWの現在位置情報を出力できる。この場合にも、カメラ3の設置位置Cpと設置姿勢Dcが既知であれば、座標変換部412で自機械座標系XYZでの現在位置情報を出力できる。
また、図12に示すように、画像情報と併せてカメラ3の設置位置Cpと設置姿勢Dcを併せたカメラ位置姿勢情報を入力することで、自機械座標系XYZにおけるワークWの現在位置情報を直接出力できるようセンサ位置検出部411のニューラルネットワーク(図中では略記)を設計、調整してもよい。この場合には、位置検出部41における座標変換部412を省略できる。
上記実施形態の自動化装置1は、以上のようにセンサ位置検出部411に対して、事前に作業対象であるワークWの外観形状とその基準点位置(現在位置情報、作業位置)を予め学習(登録)させるだけで、他の搬送機械等の他機械座標系に対する配置関係を考慮せずとも移動するワークWの捕捉が可能となる。
以上説明したように、本変形例の自動化装置1は、カメラ3は、自機械座標系XYZにおける設置位置Cpと設置姿勢Dcが既知であり、位置検出部41は、カメラ3の設置位置Cpと設置姿勢Dcを反映した機械学習プロセス(例えば深層学習)での学習内容に基づいて画像認識する。これにより、複雑で人為的なアルゴリズム設計によらず、学習データ(訓練データ)やシミュレーションなどでの学習によって、自機械座標系XYZにおけるカメラ3の設置位置Cpと設置姿勢Dcを反映したワークWの外観認識と現在位置情報を高い精度で検出可能となる。また、特に深層学習等での画像認識では、カメラ座標系XYZからの座標変換処理を経ることなく、2次元画像から直接的に自機械座標系XYZにおけるワークWの3次元座標位置として現在位置情報を検出できる。
<変形例5:その他>
上記実施形態及び各変形例では、作業機構2としてスカラ機構を適用していたが、これに限られない。他にも、特に図示しない垂直多軸機構や直交座標機構、パラレルリンク機構を適用してもよい。
なお、以上の説明において、「垂直」「平行」「平面」等の記載がある場合には、当該記載は厳密な意味ではない。すなわち、それら「垂直」「平行」「平面」とは、設計上、製造上の公差、誤差が許容され、「実質的に垂直」「実質的に平行」「実質的に平面」という意味である。
また、以上の説明において、外観上の寸法や大きさ、形状、位置等が「同一」「同じ」「等しい」「異なる」等の記載がある場合は、当該記載は厳密な意味ではない。すなわち、それら「同一」「等しい」「異なる」とは、設計上、製造上の公差、誤差が許容され、「実質的に同一」「実質的に同じ」「実質的に等しい」「実質的に異なる」という意味である。
また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。その他、一々例示はしないが、上記実施形態や各変形例は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。
1 自動化装置
2 作業機構
3 カメラ(センサ)
4 コントローラ
5 ベルトコンベア
21 エンドエフェクタ
41 位置検出部
42 作業制御部
43 モーション制御部
44 サーボアンプ
411 センサ位置検出部
412 座標変換部
421 ベクトル算出部
422 移動先算出部
V、V′ 移動速度ベクトル
W ワーク

Claims (11)

  1. 作業可能な空間範囲内に設定された自機械座標系の任意の位置に存在するワークに対して所定作業が可能な機構と、
    前記自機械座標系に対して任意かつ既知である設置位置と設置姿勢に可動な構成であって、前記ワークを含む対象環境の2次元画像を光学的に撮像するカメラと、
    前記カメラの設置位置と設置姿勢を反映した機械学習プロセスでの学習内容に基づく前記2次元画像の画像認識により前記自機械座標系中における前記ワークの現在位置情報を検出可能な位置検出部と、
    前記自機械座標系中で移動する同一のワークに対して前記位置検出部が異なる検出タイミングで検出した複数の現在位置情報に基づいて前記機構の作業位置を指令する作業制御部と、
    を有することを特徴とする自動化装置。
  2. 前記作業制御部は、
    前記位置検出部が検出した前記現在位置情報を前記機構の作業位置として逐次指令することを特徴とする請求項1記載の自動化装置。
  3. 前記作業制御部は、
    前記位置検出部が同一のワークに対して異なる検出タイミングで検出した複数の現在位置情報に基づいて前記自機械座標系中で移動する当該ワークの単位時間当たりの移動速度ベクトルを算出するベクトル算出部と、
    いずれかの前記現在位置情報を基点として前記移動速度ベクトルに基づき当該ワークの移動先位置を算出する移動先算出部と、
    を有し、
    前記移動先位置を前記機構の作業位置として指令することを特徴とする請求項1記載の自動化装置。
  4. 前記移動先算出部は、
    前記ワークの前記移動先位置への到達タイミングも算出し、
    前記作業制御部は、
    前記到達タイミングを前記機構の作業開始タイミングとして指令することを特徴とする請求項3記載の自動化装置。
  5. 前記ベクトル算出部は、
    前記移動速度ベクトルの時間変化率も算出し、
    前記移動先算出部は、
    いずれかの前記現在位置情報を基点とし前記移動速度ベクトルと前記時間変化率に基づいて前記移動先位置と当該ワークの前記移動先位置への到達タイミングを算出することを特徴とする請求項4記載の自動化装置。
  6. 前記移動先算出部は、
    前記位置検出部が前記ワークの現在位置情報の検出に失敗した場合でも、検出に成功した他の現在位置情報を基点として前記移動先位置を予測することを特徴とする請求項3乃至5のいずれか1項に記載の自動化装置。
  7. 前記ベクトル算出部は、前記カメラの撮像周期を前記単位時間として算出することを特徴とする請求項3乃至6のいずれか1項に記載の自動化装置。
  8. 前記ベクトル算出部は、前記作業制御部の制御周期を前記単位時間として算出することを特徴とする請求項3乃至6のいずれか1項に記載の自動化装置。
  9. 前記カメラは、
    低歪の広角レンズを備えた高解像度カメラであることを特徴とする請求項1乃至8のいずれか1項に記載の自動化装置。
  10. 前記機構は、その全体が移動可能に構成され、
    前記自機械座標系は、前記機構の機械的配置を基準に設定されていることを特徴とする請求項1乃至のいずれか1項に記載の自動化装置。
  11. 所定の自機械座標系に対して任意かつ既知である設置位置と設置姿勢に可動な構成であって、前記自機械座標系の任意の位置に存在するワークを含む対象環境の2次元画像を光学的に撮像するカメラと、
    前記カメラの設置位置と設置姿勢を反映した機械学習プロセスでの学習内容に基づく前記2次元画像の画像認識により前記自機械座標系中における前記ワークの現在位置情報を検出可能な位置検出部と、
    を有することを特徴とする位置検出装置。
JP2017204049A 2017-10-20 2017-10-20 自動化装置及び位置検出装置 Active JP6579498B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017204049A JP6579498B2 (ja) 2017-10-20 2017-10-20 自動化装置及び位置検出装置
KR1020180117412A KR102226986B1 (ko) 2017-10-20 2018-10-02 자동화 장치 및 위치 검출 장치
US16/164,745 US10974393B2 (en) 2017-10-20 2018-10-18 Automation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017204049A JP6579498B2 (ja) 2017-10-20 2017-10-20 自動化装置及び位置検出装置

Publications (2)

Publication Number Publication Date
JP2019076972A JP2019076972A (ja) 2019-05-23
JP6579498B2 true JP6579498B2 (ja) 2019-09-25

Family

ID=66170825

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017204049A Active JP6579498B2 (ja) 2017-10-20 2017-10-20 自動化装置及び位置検出装置

Country Status (3)

Country Link
US (1) US10974393B2 (ja)
JP (1) JP6579498B2 (ja)
KR (1) KR102226986B1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6579498B2 (ja) * 2017-10-20 2019-09-25 株式会社安川電機 自動化装置及び位置検出装置
JP6911798B2 (ja) * 2018-03-15 2021-07-28 オムロン株式会社 ロボットの動作制御装置
JP7000363B2 (ja) * 2019-01-25 2022-01-19 ファナック株式会社 ロボット制御装置および管理システム
JP7513381B2 (ja) 2019-09-27 2024-07-09 ファナック株式会社 ワークを検出する検出システム
CN112775955B (zh) * 2019-11-06 2022-02-11 深圳富泰宏精密工业有限公司 机械手臂坐标确定方法、计算机装置
CN111014594B (zh) * 2019-11-19 2021-11-26 中南大学 一种铸锭过程动态除渣的机器人轨迹规划方法
CN111791227B (zh) * 2019-12-31 2022-03-11 深圳市豪恩声学股份有限公司 机器人手眼标定方法、装置及机器人
CN111347426B (zh) * 2020-03-26 2021-06-04 季华实验室 一种基于3d视觉的机械臂精确放置轨迹规划方法
JP7404137B2 (ja) * 2020-04-01 2023-12-25 株式会社豊田中央研究所 顔画像処理装置及び顔画像処理プログラム
US11548158B2 (en) * 2020-04-17 2023-01-10 Abb Schweiz Ag Automatic sensor conflict resolution for sensor fusion system
JP7404282B2 (ja) * 2021-02-10 2023-12-25 株式会社豊田中央研究所 顔モデルパラメータ推定装置、顔モデルパラメータ推定方法及び顔モデルパラメータ推定プログラム
TW202246018A (zh) * 2021-02-18 2022-12-01 日商發那科股份有限公司 機器人模擬裝置
US20230009468A1 (en) * 2021-07-07 2023-01-12 General Electric Company System and Method for Automated Movement of a Robotic Arm
JP7534515B1 (ja) 2023-11-21 2024-08-14 コネクテッドロボティクス株式会社 処理システム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4456961A (en) * 1982-03-05 1984-06-26 Texas Instruments Incorporated Apparatus for teaching and transforming noncoincident coordinate systems
JPS60217085A (ja) * 1984-04-12 1985-10-30 富士電機株式会社 移動物体のハンドリング方式
JP2708032B2 (ja) * 1995-12-26 1998-02-04 日本電気株式会社 ロボット教示装置
JP3956063B2 (ja) * 1997-03-07 2007-08-08 株式会社安川電機 移動物体のハンドリング方法
US6377013B2 (en) * 1999-12-24 2002-04-23 Honda Giken Kogyo Kabushiki Kaisha Control apparatus for legged mobile robot
JP2004001122A (ja) * 2002-05-31 2004-01-08 Suzuki Motor Corp ピッキング装置
JP4908020B2 (ja) * 2006-03-02 2012-04-04 本田技研工業株式会社 ハンド制御システム
JP2007098567A (ja) * 2006-09-25 2007-04-19 Hitachi Ltd 自律制御型ロボットおよびその制御装置
JP5198155B2 (ja) * 2008-06-05 2013-05-15 東芝機械株式会社 ハンドリング装置、ワークハンドリング方法および信号処理装置
JP4621789B2 (ja) * 2009-06-02 2011-01-26 ファナック株式会社 物品搬送ロボットシステム
JP4837116B2 (ja) * 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
JP5623358B2 (ja) * 2011-09-06 2014-11-12 三菱電機株式会社 ワーク取り出し装置
JP2013246217A (ja) * 2012-05-23 2013-12-09 Konica Minolta Inc 撮像レンズ、撮像装置、及び携帯端末
JP6083355B2 (ja) * 2013-08-23 2017-02-22 株式会社ダイフク 物品取出設備
US9958862B2 (en) * 2014-05-08 2018-05-01 Yaskawa America, Inc. Intuitive motion coordinate system for controlling an industrial robot
JP6393872B2 (ja) * 2014-08-27 2018-09-26 カンタツ株式会社 撮像レンズ
JP6042860B2 (ja) * 2014-12-02 2016-12-14 ファナック株式会社 ロボットを用いて物品を移送する物品移送装置及び物品移送方法
US9944366B2 (en) * 2015-05-19 2018-04-17 Rujing Tang Unmanned aerial vehicle system and methods for use
DE102016015936B8 (de) * 2015-07-31 2024-10-24 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP6407826B2 (ja) * 2015-09-03 2018-10-17 ファナック株式会社 座標系設定方法、座標系設定装置、及び座標系設定装置を備えたロボットシステム
JP6551184B2 (ja) * 2015-11-18 2019-07-31 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
US9827683B1 (en) * 2016-07-28 2017-11-28 X Development Llc Collaborative inventory monitoring
JP6579498B2 (ja) * 2017-10-20 2019-09-25 株式会社安川電機 自動化装置及び位置検出装置
JP6683671B2 (ja) * 2017-11-24 2020-04-22 ファナック株式会社 ジョグ座標系を設定するロボットの制御装置
JP6859967B2 (ja) * 2018-02-16 2021-04-14 オムロン株式会社 コンベアトラッキングシステムおよびキャリブレーション方法
JP6901434B2 (ja) * 2018-06-15 2021-07-14 ファナック株式会社 ロボットシステムおよびロボット
WO2020006146A1 (en) * 2018-06-26 2020-01-02 Fanuc America Corporation Augmented reality visualization for robotic picking system

Also Published As

Publication number Publication date
US20190118383A1 (en) 2019-04-25
KR20190044496A (ko) 2019-04-30
US10974393B2 (en) 2021-04-13
KR102226986B1 (ko) 2021-03-11
JP2019076972A (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
JP6579498B2 (ja) 自動化装置及び位置検出装置
US11117262B2 (en) Intelligent robots
US10857673B2 (en) Device, method, program and recording medium, for simulation of article arraying operation performed by robot
US11241796B2 (en) Robot system and method for controlling robot system
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
US8923602B2 (en) Automated guidance and recognition system and method of the same
JP5561260B2 (ja) ロボットシステム及び撮像方法
CN111905983B (zh) 基于视觉跟随的点胶轨迹修正方法、装置、系统及介质
JP2011115877A (ja) 双腕ロボット
JP2013036988A (ja) 情報処理装置及び情報処理方法
JPWO2018092243A1 (ja) 作業位置補正方法および作業ロボット
JP3754402B2 (ja) 産業用ロボットの制御方法および制御装置
JP2016147330A (ja) 物体認識に基づく制御装置
US20220395981A1 (en) System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
EP4101604A1 (en) System and method for improving accuracy of 3d eye-to-hand coordination of a robotic system
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JP2004243215A (ja) シーラー塗布装置のロボットティーチング方法及びシーラー塗布装置
KR20210117307A (ko) 툴링 경로 생성이 개선된 산업용 로봇 장치, 및 개선된 툴링 경로에 따라 산업용 로봇 장치를 작동시키기 위한 방법
JP2020116687A (ja) 追随ロボットおよび作業ロボットシステム
JP2020116717A (ja) ロボット制御システム
JP2003311670A (ja) ロボットアームの位置制御方法およびロボット装置
JP7502003B2 (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
JP4056662B2 (ja) 外観検査装置
US20220373998A1 (en) Sensor fusion for line tracking
JP6889216B2 (ja) 作業システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190805

R150 Certificate of patent or registration of utility model

Ref document number: 6579498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190818