JP7047249B2 - 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム - Google Patents

画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム Download PDF

Info

Publication number
JP7047249B2
JP7047249B2 JP2017001627A JP2017001627A JP7047249B2 JP 7047249 B2 JP7047249 B2 JP 7047249B2 JP 2017001627 A JP2017001627 A JP 2017001627A JP 2017001627 A JP2017001627 A JP 2017001627A JP 7047249 B2 JP7047249 B2 JP 7047249B2
Authority
JP
Japan
Prior art keywords
work
image
order
conveyor
works
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017001627A
Other languages
English (en)
Other versions
JP2018111140A (ja
Inventor
洋介 岩井
豊男 飯田
純児 島村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017001627A priority Critical patent/JP7047249B2/ja
Priority to CN201710943152.9A priority patent/CN108284443B/zh
Priority to US15/787,788 priority patent/US10407250B2/en
Priority to EP17197551.9A priority patent/EP3346446B1/en
Publication of JP2018111140A publication Critical patent/JP2018111140A/ja
Application granted granted Critical
Publication of JP7047249B2 publication Critical patent/JP7047249B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/22Devices influencing the relative position or the attitude of articles during transit by conveyors
    • B65G47/26Devices influencing the relative position or the attitude of articles during transit by conveyors arranging the articles, e.g. varying spacing between individual articles
    • B65G47/30Devices influencing the relative position or the attitude of articles during transit by conveyors arranging the articles, e.g. varying spacing between individual articles during transit by a series of conveyors
    • B65G47/32Applications of transfer devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G15/00Conveyors having endless load-conveying surfaces, i.e. belts and like continuous members, to which tractive effort is transmitted by means other than endless driving elements of similar configuration
    • B65G15/10Conveyors having endless load-conveying surfaces, i.e. belts and like continuous members, to which tractive effort is transmitted by means other than endless driving elements of similar configuration comprising two or more co-operating endless surfaces with parallel longitudinal axes, or a multiplicity of parallel elements, e.g. ropes defining an endless surface
    • B65G15/12Conveyors having endless load-conveying surfaces, i.e. belts and like continuous members, to which tractive effort is transmitted by means other than endless driving elements of similar configuration comprising two or more co-operating endless surfaces with parallel longitudinal axes, or a multiplicity of parallel elements, e.g. ropes defining an endless surface with two or more endless belts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G47/00Article or material-handling devices associated with conveyors; Methods employing such devices
    • B65G47/74Feeding, transfer, or discharging devices of particular kinds or types
    • B65G47/90Devices for picking-up and depositing articles or materials
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4189Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39102Manipulator cooperating with conveyor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Specific Conveyance Elements (AREA)

Description

本開示は、コンベア上を搬送されるワークをピックアップするためのロボットを制御するための技術に関する。
FA(Factory Automation)分野において、コンベア上を搬送されるワークをピックアップすることができる産業用のロボットが普及している。ロボットは、たとえば、コンベア上を搬送されるワークをピックアップし、他のコンベア上を搬送される容器にプレースするために利用される(所謂ピック&プレース)。
コンベア上を搬送されるワークは、重なっていることがある。このような場合、下側のワークがピックアップされると、上側のワークは、下側のワークの移動の影響を受けて、上側のワークの位置が変動してしまう。その結果、ロボットは、ワークの位置を再度取り直さなければならない。このような問題を解決する方法の一例として、ワークの重なりを搬送過程で解消することが考えられる。ワークの重なりを解消するための技術に関し、特開2015-174758号公報(特許文献1)は、「単包状の袋群の袋同士の様々な重なり状態を搬送中に確実に解消することが可能な」コンベア式の搬送装置を開示している。しかしながら、当該搬送装置は、搬送過程でワークの重なりを解消するための構成が必要となる。そのため、搬送装置の構成が複雑になってしまう。
近年、搬送過程でワークの重なりを解消することなくワークをピックアップするための技術が開発されている。このような技術に関し、特開2012-055995号公報(特許文献2)は、「互いに重なり合わないように置かれた条件下において」上側のワークの位置を変動させずに下側のワークをピックアップするための多関節ロボットを開示している。特許文献2に開示される多関節ロボットは、ピックアップ対象のワークを所定の移動量だけ水平面方向に移動させてから当該ワークをピックアップする。
特開2015-174758号公報 特開2012-055995号公報
特許文献2に開示される多関節ロボットは、「互いに重なり合わないように置かれた条件下において」所定の移動量だけ水平面方向ワークを移動させてからワークをピックアップする。そのため、多関節ロボットが重なり合っているワークの内、下側のワークを移動した場合には、下側のワークの移動の影響を受けて上側のワークの位置が変動してしまう。その結果、多関節ロボットは、ワークの位置を再度取り直さなければならない。したがって、ワークが重なって搬送されている場合であっても、各ワークの位置が変動しないようにワークをピックアップするための技術が望まれている。
ある局面に従うと、コンベア上を搬送される重なり合った複数のワークについてロボットによるピックアップ順を決定するための画像処理システムは、上記コンベアが撮影視野に含まれるように配置され、上記撮影視野に含まれる被写体を撮影するための撮影部を備える。上記撮影部は、上記被写体を撮影することで、上記被写体を表わす輝度画像と、上記コンベア上から上記被写体の各点までの高さからなる距離画像とを生成する。上記画像処理システムは、さらに、上記輝度画像内において上記複数のワークのそれぞれの位置を計測するための計測部と、上記輝度画像内における上記複数のワークのそれぞれの位置に対応する上記距離画像内の高さ情報に基づいて、上記複数のワークの重なり順を特定するための特定部と、上記複数のワークの内、上記重なり順が最上位であるワークを他のワークよりも優先的にピックアップするように上記ピックアップ順を決定するための決定部とを備える。
好ましくは、上記決定部は、上記重なり順が上位であるワークから順にピックアップするように上記ピックアップ順を決定する。
好ましくは、上記特定部は、重なり合った複数のワークからなるワーク群が上記輝度画像内に複数含まれる場合には、各ワーク群ついてワークの重なり順を特定する。上記決定部は、各ワーク群において上記重なり順が最上位であるワークの内、上記コンベアの搬送経路においてより下流側に存在するワークを優先的にピックアップするように上記ピックアップ順を決定する。
好ましくは、上記決定部は、他のワークと重なり合っていないワークと、重なり合った複数のワークとが上記輝度画像内に含まれる場合には、当該重なり合っていないワークと、当該重なり合った複数のワークにおいて上記重なり順が最上位であるワークとの内、上記コンベアの搬送経路においてより下流側に存在するワークを優先的にピックアップするように上記ピックアップ順を決定する。
好ましくは、上記撮影部は、上記複数のワークの搬送方向と直交する方向に広がったライン状の光を、上記コンベア上を搬送される上記複数のワークに投光するための投光部と、上記コンベア上を搬送される上記複数のワークから上記光の反射光を順次受け、各受光タイミングにおける当該反射光の受光位置に基づいて上記距離画像を生成するとともに、上記撮影視野に含まれる上記被写体からの反射光を受けて上記輝度画像を生成するための受光部とを含む。
好ましくは、上記撮影部は、上記複数のワークの搬送方向と直交する方向に広がったライン状の光を上記コンベア上を搬送される上記複数のワークに投光するための投光部と、上記コンベアを搬送される上記複数のワークから上記光の反射光を順次受け、各受光タイミングにおける当該反射光の受光位置に基づいて上記距離画像を生成するための第1受光部と、上記撮影視野に含まれる上記被写体からの反射光を受けて上記輝度画像を生成するための第2受光部とを含む。
他の局面に従うと、コンベア上を搬送される重なり合った複数のワークについてロボットによるピックアップ順を決定するための画像処理装置は、上記コンベアが撮影視野に含まれるように配置され、上記撮影視野に含まれる被写体を撮影するための撮影部を備える。上記撮影部は、上記被写体を撮影することで、上記被写体を表わす輝度画像と、上記コンベア上から上記被写体の各点までの高さからなる距離画像とを生成する。上記画像処理装置は、さらに、上記輝度画像内において上記複数のワークのそれぞれの位置を計測するための計測部と、上記輝度画像内における上記複数のワークのそれぞれの位置に対応する上記距離画像内の高さ情報に基づいて、上記複数のワークの重なり順を特定するための特定部と、上記複数のワークの内、上記重なり順が最上位であるワークを他のワークよりも優先的にピックアップするように上記ピックアップ順を決定するための決定部とを備える。
他の局面に従うと、コンベア上を搬送される重なり合った複数のワークについてロボットによるピックアップ順を決定するためのピックアップ方法は、上記コンベアが撮影視野に含まれるように配置され撮影部を用いて上記撮影視野に含まれる被写体を撮影するステップを備える。上記撮影するステップは、上記被写体を撮影することで、上記被写体を表わす輝度画像と、上記コンベア上から上記被写体の各点までの高さからなる距離画像とを生成するステップを含む。上記ピックアップ方法は、さらに、上記輝度画像内において上記複数のワークのそれぞれの位置を計測するステップと、上記輝度画像内における上記複数のワークのそれぞれの位置に対応する上記距離画像内の高さ情報に基づいて、上記複数のワークの重なり順を特定するステップと、上記複数のワークの内、上記重なり順が最上位であるワークを他のワークよりも優先的にピックアップするように上記ピックアップ順を決定するステップとを備える。
他の局面に従うと、コンベア上を搬送される重なり合った複数のワークについてロボットによるピックアップ順を決定するためのピックアッププログラムは、コンピュータに、上記コンベアが撮影視野に含まれるように配置され撮影部を用いて上記撮影視野に含まれる被写体を撮影するステップを備える。上記撮影するステップは、上記被写体を撮影することで、上記被写体を表わす輝度画像と、上記コンベア上から上記被写体の各点までの高さからなる距離画像とを生成するステップを含む。上記ピックアッププログラムは、上記コンピュータに、さらに、上記輝度画像内において上記複数のワークのそれぞれの位置を計測するステップと、上記輝度画像内における上記複数のワークのそれぞれの位置に対応する上記距離画像内の高さ情報に基づいて、上記複数のワークの重なり順を特定するステップと、上記複数のワークの内、上記重なり順が最上位であるワークを他のワークよりも優先的にピックアップするように上記ピックアップ順を決定するステップとを実行させる。
ある局面において、ワークが重なって搬送されている場合であっても、ワークの位置が変動しないようにワークをピックアップすることができる。
本開示の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。
第1の実施の形態に従う画像処理システムの基本構成を示す模式図である。 第1の実施の形態における撮影装置を示す図である。 ワークのピックアップ順を決定する方法を概略的に示す概念図である。 第1の実施の形態に従う画像センサの機能構成の一例を示す図である。 コンベアを搬送されるワークの一例を示す図である。 コンベアを搬送されるワークの他の例を示す図である。 ワークの重なり順を特定する処理を概略的に示す概念図である。 画像センサとPLC(Programmable Logic Controller)とロボットとの間のデータの流れを示すシーケンス図である。 ワークの計測処理を表わすフローチャートである。 ピックアップ対象のワークのエンキュー処理を示す図である。 ピックアップ対象のワークのデキュー処理を示す図である。 第1の実施の形態に従う画像センサのハードウェア構成を示す模式図である。 第1の実施の形態に従うPLCのハードウェア構成例を示すブロッグ図である。 第2の実施の形態に従う画像処理システムの基本構成を示す模式図である。 第3の実施の形態における撮影装置を示す図である。
以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。
<第1の実施の形態>
[A.画像処理システム1]
図1を参照して、本実施の形態に従う画像処理システム1の基本構成について説明する。図1は、本実施の形態に従う画像処理システム1の基本構成を示す模式図である。
図1に示されるように、画像処理システム1は、画像処理装置2と、撮影装置130と、ロボット300とを含む。画像処理装置2は、画像センサ100と、PLC200とで構成されている。
PLC200には、画像センサ100、カウンタ127、サーボドライバ230、表示装置231、入力装置232などが接続され得る。画像センサ100およびカウンタ127は、デイジーチェーンでフィールドネットワークNW1によってPLC200に接続されている。フィールドネットワークNW1として、たとえば、EtherCAT(登録商標)が採用される。また、ロボット300は、フィールドネットワークNW2を介してPLC200に接続されている。フィールドネットワークNW2として、たとえば、EtherNET(登録商標)が採用される。サーボドライバ230、表示装置231、および入力装置232は、PLC200に電気的に接続されている。表示装置231は、画像を表示可能な液晶パネルなどで構成される。入力装置232は、画像処理システム1に対する操作入力を受け付け、典型的には、タッチパネル、キーボード、マウスなどで構成される。カウンタ127には、エンコーダ128が電気的に接続されている。
カウンタ127は、エンコーダ128から発生するパルス波に基づいてコンベア20Aの移動量を計測する。より具体的には、エンコーダ128は、コンベア20Aの移動量に応じてパルス信号を発生する。カウンタ127は、エンコーダ128からパルス信号を受け、当該パルス信号に含まれるパルス数をカウントすることでコンベア20Aの移動量を計測する。カウンタ127は、パルス波のカウント値を画像センサ100に一定の通信周期ごとに送信する。
撮影装置130は、その撮影視野AR1にコンベア20Aが含まれように配置されており、画像センサ100からの撮影指示に基づいて撮影視野AR1に含まれる被写体を撮影する。ここでいう被写体とは、撮影視野AR1に含まれる撮影対象物の全体のことをいう。すなわち、被写体は、コンベア20AやワークWなどを含む。画像センサ100は、定期的に撮影装置130に撮影指示を出力する。一例として、画像センサ100は、前回の撮影指示の出力時におけるカウンタ127のカウント値と、現在のカウント値との差分値が所定値を超えたタイミングで、撮影装置130に撮影指示を送る。これにより、ワークWの撮影処理が定期的に実行される。
画像センサ100は、撮影装置130から得られた輝度画像内からワークWを計測する。一例として、画像センサ100は、パターンマッチングなどの画像処理によりワークWを計測する。より具体的には、計測対象のワークを表わすモデル画像が画像センサ100に予め登録されており、画像センサ100は、撮影装置130から得られた輝度画像内においてモデル画像と類似する画像領域を探索する。モデル画像と類似する画像領域が計測された場合には、画像センサ100は、当該画像領域の位置を記憶する。画像センサ100によって計測されたワークWの位置は、撮影装置130におけるカメラ座標系の座標値(cx,cy)[pixel]で表わされる。画像センサ100は、輝度画像内におけるワーク位置をPLC200に出力する。
PLC200は、撮影時におけるカウンタ127によるカウント値と、予め定められた座標変換式とに基づいて、カメラ座標系の座標値をワールド座標系の座標値に変換する。ワールド座標系は、ロボット300を制御するための座標系であり、ワールド座標系でのワークWの位置は、座標値(wx,wy,wz)[mm]で表わされる。当該座標値は、撮影時におけるワークの位置(以下、「基準位置」ともいう。)となる。
PLC200は、ワールド座標系で示されるワークWの基準位置に基づいて、ワークWをトラッキングする。より具体的には、PLC200は、カウンタ127から現在のカウント値を受信すると、現在のカウント値と、ワークWの撮影時におけるカウント値と差に基づいて、撮影時からのワークWの移動量を算出する。1カウント辺りの移動量は、予め定められている。PLC200は、撮影時におけるワークの基準位置に算出された移動量を加算することで、ワークWの現在位置を更新する。その後、PLC200は、新たなカウント値を受信する度に、前回のカウント値との差に基づいて、ワークWの前回からの移動量を算出する。PLC200は、記憶されているワークの位置に当該移動量を加算することで、ワークWの現在位置を更新する。この更新処理が繰り返されることで、ワークWのトラッキング処理が実現される。
PLC200は、ワークWの現在位置がロボット300の作業エリアAR2に到達したか否かを判断する。PLC200は、ワークWの現在位置が作業エリアAR2に到達したと判断した場合、ワークWの現在位置に基づいてワークWをピックアップするための動作指示を生成し、当該動作指示をサーボドライバ230に出力する。サーボドライバ230は、PLC200から受け付けた動作指示に基づいて、ロボット300を駆動し、ワークWをピックアップし、当該ワークWを容器Cにプレースする。ワークWのピックアップ方法は、任意である。たとえば、ロボット300は、ワークWを吸着することでピックアップ処理を実現してもよいし、アームで把持することでピックアップ処理を実現してもよい。
なお、図1には、画像センサ100および撮影装置130が別個に構成されている例が示されているが、画像センサ100および撮影装置130は、一体的に構成されてもよい。
[B.撮影装置130]
図2を参照して、撮影装置130について説明する。図2は、撮影装置130の一例を示す図である。図2には、コンベア20A上を搬送されるワークWが撮影装置130によって撮影されている様子が示されている。
撮影装置130は、受光部131と、投光部132とを含む。撮影装置130は、撮影視野AR1を有し、撮影視野AR1に含まれる被写体を撮影することで、当該被写体を表わす輝度画像を生成する。同時に、撮影装置130は、コンベア20A上の搬送面から被写体の各点までの高さからなる距離画像を生成する。
一例として、距離画像は、光切断法によって生成される。より具体的には、投光部132は、ワークWの搬送方向と直交する方向に広がったライン状の光LTをワークWに投光する。受光部131は、ワークWから光LTの反射光を順次受け、各受光タイミングにおける反射光の受光位置に基づいて距離画像を生成する。
典型的には、受光部131は、2次元に配置された複数の受光素子で構成される。光LTの反射光が入射する受光素子は、撮影装置130から被写体までの距離に応じて変わる。すなわち、受光部131が被写体からの光LTの反射光を撮像すると、ラインLN上のプロファイルが得られる。当該プロファイルに三角測量を応用すると、コンベア20Aの搬送面からラインLN上の被写体の各点までの高さ情報が得られる。撮影装置130は、得られた高さ情報を時系列に並べることで距離画像を生成する。
撮影装置130は、距離画像の生成と同時または略同時に輝度画像を生成する。好ましくは、撮影装置130は、輝度画像の生成時には、投光部132からの光LTの照射を停止する。これにより、受光部131は、外光の反射光のみを被写体から受けることができ、輝度画像の生成において光LTの影響を受けない。
なお、上述では、距離画像の各画素がコンベア上から被写体の各点までの高さで表わされている例について説明を行ったが、距離画像の各画素は、撮影装置130から被写体の各点までの距離で表わされてもよい。
[C.ワークのピックアップ順の決定方法]
本実施の形態に従う画像処理システム1は、重なり合った複数のワークについて重なり順を特定し、重なり順が上位であるワークから順にピックアップするようにピックアップ順を決定する。その後、画像処理システム1は、決定したピックアップ順に従ってワークをピック&プレースする。
以下では、図3を参照して、ワークのピックアップ順を決定する方法について説明する。図3は、ワークWのピックアップ順を決定する方法を概略的に示す概念図である。
上述したように、撮影装置130は、撮影視野AR1に含まれる被写体を撮影することで、被写体を表わす輝度画像と、コンベア20A上の搬送面から被写体の各点までの高さからなる距離画像とを生成する。図3には、それらの一例として、輝度画像40と距離画像50とが示されている。図3の例では、輝度画像40および距離画像50には、重なり合ったワークWA~WCが写っている。
画像センサ100は、輝度画像40内においてワークWA~WCのそれぞれの位置を計測する。一例として、ワークWA~WCは、パターンマッチングなどの画像処理によって計測される。画像処理の結果、画像センサ100は、ワークWAを表わすワーク領域41Aと、ワークWBを表わすワーク領域41Bと、ワークWBを表わすワーク領域41Aとを計測する。
その後、画像センサ100は、輝度画像40内のワーク領域41A~41Cのそれぞれに対応する領域(以下、「対応領域」ともいう。)を距離画像50内において特定する。典型的には、輝度画像40および距離画像50は、同一の撮影装置130から生成され、輝度画像40および距離画像50の撮影タイミングは、同じまたは略同じであるので、輝度画像40内の被写体と、距離画像50内の被写体とは同じ位置に写る。そのため、画像センサ100は、ワーク領域41Aと同じ座標値を示すワーク領域51Aをワーク領域41Aの対応領域として特定する。同様に、画像センサ100は、ワーク領域41Bの対応領域としてワーク領域51Bを特定する。同様に、画像センサ100は、ワーク領域41Cの対応領域としてワーク領域51Cを特定する。
画像センサ100は、ワーク領域51A~51Cにおける高さ情報に基づいて、ワークWA~WCの重なり順を特定する。典型的には、画像センサ100は、ワーク領域51A~51Cに示される高さが大きいワークほど上側に重なっているワークであると認識する。図3の例では、画像センサ100は、ワークWAの重なり順が最上位であると認識し、ワークWBの重なり順が2番目である認識し、ワークWCの重なり順が3番目である認識する。
画像センサ100は、重なり合ったワークWA~WCの内、重なり順が最上位であるワークWAを他のワークWB,WCよりも優先的にピックアップするようにピックアップ順を決定する。典型的には、画像センサ100は、重なり順が上位であるワークから順にピックアップするようにピックアップ順を決定する。図3の例では、画像センサ100は、ワークWA,WB,WCの順にピックアップするようにピックアップ順を決定する。
画像センサ100は、決定したピックアップ順に基づいて、キュー225にワーク情報を登録(エンキュー)する。登録されるワーク情報は、たとえば、ワークの識別情報、ワークの位置を含む。ワークの位置は、たとえば、輝度画像40または距離画像50内の座標値(x座標、y座標)と、輝度画像40または距離画像50内でのワークの傾きθと、コンベア上からのワーク上面までの高さhとで表わされる。
図3の例では、画像センサ100は、重なり順が最上位であるワークWAをキュー225に登録する。次に、画像センサ100は、重なり順が2番目であるワークWBをキュー225に登録する。次に、画像センサ100は、重なり順が3番目であるワークWCをキュー225に登録する。
キュー225に登録された各ワークの位置は、上述のトラッキング処理により順次更新される。ワークのピックアップタイミングが到来すると、PLC200は、キュー225を参照して、より先に登録されたワーク情報を取得(デキュー)する。すなわち、キュー225に登録されているワーク情報は、先入れ先出し(FIFO:First In First Out)で順次取得される。図3の例では、ワークWAのワーク情報が取得される。PLC200は、ワークWAをピックアップするための動作指示を生成し、当該動作指示をサーボドライバ230に出力する。サーボドライバ230は、PLC200から受信した動作指示に基づいて、ロボット300を駆動し、指定されたワークWAをピックアップし、当該ワークWAを容器Cにプレースする。その後、PLC200は、ワークのピックアップタイミングが到来する度に、より先に登録されたワーク情報をキュー225から取得し、取得したワーク情報によって示されるワークのピック&プレースを実行する。
以上のように、本実施の形態に従う画像センサ100は、重なり順が上位であるワークから順にピックアップするようにピックアップ順を決定する。これにより、ロボット300は、より上側に存在するワークから順にピックアップすることができる。ロボット300は、上側のワークから順にピックアップすることで、各ワークを互いに干渉させずにピックアップすることができる。その結果、画像センサ100は、各ワークの位置を再度計測する必要がなくなり、ワークを効率的にピックアップすることができる。
[D.画像センサ100の機能構成]
図4~図6を参照して、画像センサ100の機能について説明する。図4は、画像センサ100の機能構成の一例を示す図である。
図4に示されるように、画像センサ100は、主要なハードウェア構成として、制御装置101と、記憶装置120とを含む。制御装置101は、機能構成として、計測部152と、特定部154とを含む。PLC200は、主要なハードウェア構成として、制御装置201と、記憶装置220とを含む。制御装置201は、機能構成として、受信部252と、決定部254と、更新部256と、ロボット制御部258とを含む。
計測部152は、コンベア上を搬送されるワークを撮影して得られた輝度画像を撮影装置130から定期的に取得する。計測部152は、撮影装置130から輝度画像を取得したことに基づいて、ワークを計測するための所定の画像処理を当該輝度画像に対して実行し、当該輝度画像内からワークの位置を計測する。当該ワークの位置は、たとえば、輝度画像内における座標値、輝度画像内におけるワークの傾きなどで表わされる。
特定部154は、計測部152による輝度画像と同時または略同時にワークを撮影して得られた距離画像を撮影装置130から取得する。上述のように、距離画像の各画素は、コンベア上から被写体の各点までの高さを表わす。特定部154は、輝度画像内における各ワークの位置に対応する領域(すなわち、対応領域)を距離画像から特定し、当該対応領域内に示される高さ情報に基づいて、各ワークの重なり順を特定する。
このとき、重なり合った複数のワークからなるワーク群が輝度画像内に複数含まれる場合には、特定部154は、各ワーク群について重なり順を特定する。ここでいうワーク群とは、重なり合ったワークの集合のことをいう。典型的には、特定部154は、各ワークの重心間の距離が所定距離よりも短いワークの集合を1つのワーク群としてみなす。なお、特定部154は、いずれのワークとも重なりあっていないワーク(以下、「孤立ワーク」ともいう。)については、重なり順を特定しない。ここでいう孤立ワークとは、他のワークと所定距離以上離れているワークのことをいう。
計測部152によって計測されたワーク位置、および、特定部154によって特定された重なり順は、ワークを識別するためのワークID、ワーク群を識別するためのワーク群IDに関連付けられた上で計測結果124に書き込まれる。このとき、孤立ワークについては、ワーク群IDおよび重なり順が付与されない。
受信部252は、画像センサ100から計測結果124を受信し、計測結果124を決定部254に出力する。また、受信部252は、コンベアの移動量に相当するカウント値をカウンタ127から受信し、当該カウント値を更新部256に出力する。
決定部254は、計測結果124を参照して、ワークのピックアップ順を決定する。決定部254は、様々な方法でワークのピックアップ順を決定する。一例として、決定部254は、複数のワーク群が存在する場合には、各ワーク群の最上位に存在するワークの位置に基づいてピックアップ順を決定する。典型的には、決定部254は、各ワーク群において重なり順が最上位であるワーク(以下、「最上位ワーク」ともいう。)の内、コンベアの搬送経路においてより下流側に存在する最上位ワークをキュー225に登録する。この登録処理が繰り返されることで、ワーク同士が互いに干渉しないように各ワークをピックアップすることができる。
図5は、コンベア20Aを搬送されるワークの一例を示す図である。図5の例では、決定部254は、ワーク群30Aの最上位ワークWDと、ワーク群30Bの最上位ワークWEとの内、コンベア20Aの搬送経路においてより下流側に存在する最上位ワークWDを優先的にピックアップするようにピックアップ順を決定する。
また、互いに重なり合ったワーク群と、他のワークと重なり合っていない孤立ワークとが輝度画像内に含まれる場合には、決定部254は、当該孤立ワークと、当該ワーク群の最上位ワークとの内、コンベアの搬送経路においてより下流側に存在するワークをキュー225に登録する。この登録処理が繰り返されることで、ワーク同士が互いに干渉しないように各ワークをピックアップすることができる。
図6は、コンベア20Aを搬送されるワークの他の例を示す図である。図6の例では、決定部254は、ワーク群30Aの最上位ワークWDと孤立ワークWF~WHとの内、コンベア20Aの搬送経路においてより下流側に存在する孤立ワークWFを優先的にピックアップするようにピックアップ順を決定する。
更新部256は、カウンタ127による最新のカウント値に基づいて、キュー225に登録されているワークの位置情報を逐次更新し、ワークのトラッキング処理を実現する。トラッキング処理は上述の通りであるので、その説明については繰り返さない。
ロボット制御部258は、ワークのピックアップタイミングが到来する度に、より先に登録されたワークをキュー225から取得する。ロボット制御部258は、キュー225から取得したワークをピックアップ対象として決定し、当該ワークをピックアップするための動作指示を生成する。当該動作指示は、サーボドライバ230に出力される。サーボドライバ230は、PLC200から受け付けた動作指示に基づいて、ロボット300を駆動し、指定されたワークをピックアップする。
なお、画像センサ100の機能構成の少なくとも一部(たとえば、計測部152や特定部154など)は、PLC200に実装されてもよいし、サーバーなどのその他の情報処理端末に実装されてもよい。PLC200の機能構成の少なくとも一部(たとえば、決定部254や更新部256など)は、画像センサ100に実装されてもよいし、サーバーなどのその他の情報処理端末に実装されてもよい。
[E.特定部154]
図7を参照して、上述の特定部154によるワークの重なり順の特定処理についてさらに説明する。図7は、ワークの重なり順を特定する処理を概略的に示す概念図である。
上述したように、特定部154は、輝度画像70内のワーク領域72Aに対応する距離画像80内の対応領域82Aと、輝度画像70内のワーク領域72Bに対応する距離画像80内の対応領域82Bとを特定し、対応領域82A,82B内の高さ情報に基づいてワークWI,WJの重なり順を特定する。
このとき、重なり順を決定するために利用される高さ情報は、様々な方法で算出され得る。一例として、特定部154は、微分フィルタを距離画像80に適用することで微分画像を生成し、当該微分画像の画素値が所定値よりも大きい部分をエッジとして検知する。特定部154は、検知されたエッジ上から安定度の高いエッジ点E1~E4を選択する。安定度が高いエッジ点には、たとえば、画素値が大きい上位所定数の画素が選択される。その後、特定部154は、エッジ点E1~E4の各々からワークWIの中心点83A(または重心)までの各高さ値を積算する。
上述のように、三角測量が応用されることで距離画像が生成されているが、三角測量の性質上、エッジ点E1~E4付近に規定される距離値は不安定である。そのため、好ましくは、特定部154は、エッジ点E1~E4から中心点83Aまでの間の所定パーセント(たとえば、10~20パーセント)の高さ値については積算しなくてもよい。
同様に、特定部154は、ワークWJのエッジ上から安定度の高いエッジ点E11~E14を抽出する。このとき、ワークWIについて選択されたエッジ点E1~E4と同数のエッジ点E11~E14がワークWJについて選択される。特定部154は、エッジ点E11~E14の各々からワークWJの中心点83B(または重心)までの高さ値を積算する。
特定部154は、ワークWI,WJの各々について算出された積算値に基づいてワークWI,WJの重なり順を特定する。典型的には、特定部154は、ワークWI,WJの各々について算出された積算値が大きいワークほど重なり順が上位にくるようにワークの重なり順を特定する。
なお、重なり順を決定するために利用される高さ情報は、他の方法で算出されてもよい。たとえば、特定部154は、ワーク領域72Aの中心点73Aに対応する中心点83Aの高さ値と、ワーク領域72Bの中心点73Bに対応する中心点83Bの高さ値とを比較して、ワークWI,WJの重なり順を決定してもよい。
あるいは、特定部154は、ワーク領域72Aの重心点に対応する対応領域82Aの重心点の高さ値と、ワーク領域72Bの重心点に対応する対応領域82Bの重心点の高さ値とを比較して、ワークWI,WJの重なり順を決定してもよい。
あるいは、特定部154は、ワーク領域72Aの対応領域82A内の高さ値の代表値(たとえば、平均値、中央値、最小値、最大値)と、ワーク領域72Bの対応領域の82B内の高さ値の代表値(たとえば、平均値、中央値、最小値、最大値)とを比較して、ワークWI,WJの重なり順を決定してもよい。このとき、好ましくは、代表値の算出には、対応領域82A,82Bの内、ワークの重複部分ではない領域の高さ値が用いられる。
あるいは、特定部154は、対応領域82A,82B内において所定範囲の高さ値を有する領域の面積に基づいて、ワークWI,WJの重なり順を決定してもよい。
なお、上述では、距離画像の各画素がコンベア上から被写体の各点までの高さで表わされている例について説明を行ったが、距離画像の各画素は、撮影装置130から被写体の各点までの距離で表わされてもよい。この場合には、距離画像の各画素の大小関係が逆転するので、特定部154は、距離画像内のワーク部分に示される距離情報が小さいワークほど上側に重なっているワークであると認識する。
[F.データフロー]
図8を参照して、画像処理システム1におけるデータの流れについて説明する。図8は、画像センサ100とPLC200とロボット300との間のデータの流れを示すシーケンス図である。
ステップS10において、撮影装置130による撮影タイミングが到来したとする。撮影タイミングは、定期的に到来する。画像センサ100は、撮影タイミングが到来したことに基づいて、撮影装置130に撮影指示を出力する。これにより、撮影装置130は、撮影処理を実行し、被写体を表わす輝度画像と、コンベア上から被写体の各点までの高さからなる距離画像とを生成する。画像センサ100は、生成された輝度画像と距離画像とを撮影装置130から取得する。
ステップS12において、画像センサ100は、ワークを計測するための所定の画像処理を実行することで、輝度画像内から各ワークの位置を計測する。当該ワークの位置は、たとえば、輝度画像内における座標値、輝度画像内におけるワークの傾きなどで表わされる。輝度画像内の各ワークの位置は、上述の計測結果124に書き込まれる。
ステップS14において、画像センサ100は、ステップS12で計測された輝度画像内における各ワークの位置に対応する領域(すなわち、対応領域)を距離画像から特定し、当該対応領域内に示される高さ情報に基づいて、各ワークの重なり順を特定する。各ワークの重なり順は、上述の計測結果124に書き込まれる。
ステップS20において、画像センサ100は、計測結果124をPLC200に送信する。画像センサ100は、ステップS10,S12,S14,S20の処理を繰り返すことで、計測結果124を順次PLC200に送信する。このとき、画像センサ100は、今回計測されたワークの内、前回計測されたワークと重複しているものについては計測結果124から除去した上で計測結果124をPLC200に計測結果を送信する。
ステップS22において、PLC200は、画像センサ100から受信した計測結果124に基づいて、ワークのピックアップ順を決定する。ワークのピックアップ順の決定方法については上述した通りであるので、その説明については繰り返さない。
ステップS24において、PLC200は、ステップS22で決定されたピックアップ順に従ってキュー225にワーク情報を登録する。登録されるワーク情報は、たとえば、ワークの識別情報、ワークの位置を含む。ワークの位置は、たとえば、輝度画像または距離画像内の座標値(x座標、y座標)と、輝度画像または距離画像内でのワークの傾きθと、コンベア上からのワークの高さhとで表わされる。その後、PLC200は、カウンタ127から定期的にカウント値を定期的に取得し、取得したカウント値に基づいて、キュー225に登録されているワークの位置を逐次的に更新する。これにより、トラッキング処理が実現される。
PLC200は、画像センサ100から新たな計測結果124を受信する度に、ステップS22,S24の処理を繰り返す。これにより、ピックアップ対象のワークが順次キュー225に登録される。
ステップS30において、ワークのピックアップタイミングが到来したとする。このことに基づいて、PLC200は、キュー225に登録されているワーク情報の内から、より先に登録されたワーク情報をピックアップ対象として取得する。PLC200は、ピックアップ対象のワークをピックアップするための動作指示を生成し、当該動作指示をロボット300に送信する。
ステップS32において、ロボット300は、PLC200から受信した動作指示に基づいて、ピックアップ対象のワークをピックアップする。このとき、ロボット300は、搬送先の容器の位置を逐次取得し、当該位置情報に基づいて、ピックアップしたワークを容器に移動する。
PLC200は、ワークのピックアップタイミングが到来する度に、ステップS30,S32の処理を繰り返す。これにより、PLC200は、先にキュー225に登録されているワークから順にピックアップ処理を実行する。
[G.制御構造]
図9~図11を参照して、画像処理システム1の制御構造について説明する。図9は、ワークの計測処理を表わすフローチャートである。図9の処理は、画像センサ100の制御装置101がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、回路素子またはその他のハードウェアによって実行されてもよい。
図10は、ピックアップ対象のワークのエンキュー処理を示す図である。図11は、ピックアップ対象のワークのデキュー処理を示す図である。図10および図11の処理は、PLC200の制御装置201がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、回路素子またはその他のハードウェアによって実行されてもよい。
以下では、図9に示される計測処理、図10に示されるエンキュー処理、図11に示されるデキュー処理のフローについて順に説明する。
(G1.計測処理)
図9を参照して、ステップS110において、制御装置101は、上述の計測部152(図4参照)として、撮影装置130の撮影タイミングが到来したか否かを判断する。一例として、撮影タイミングは、予め定められた間隔で到来する。制御装置101は、撮影装置130の撮影タイミングが到来したと判断した場合(ステップS110においてYES)、制御をステップS112に切り替える。そうでない場合には(ステップS110においてNO)、制御装置101は、ステップS110の処理を再び実行する。
ステップS112において、制御装置101は、計測部152として、撮影装置130に撮影指示を出力し、被写体を表わす輝度画像と、コンベア上から被写体の各点までの高さからなる距離画像とを撮影装置130から取得する。
ステップS114において、制御装置101は、計測部152として、ワークを計測するための所定の画像処理を実行することで、輝度画像内からワークの位置を計測する。輝度画像内の各ワークの位置は、上述の計測結果124(図4参照)に書き込まれる。
ステップS116において、制御装置101は、今回計測されたワークの内、前回計測されたワークと同一のものについては計測結果124から除去する。より具体的には、制御装置101は、前回の計測タイミングから今回の計測タイミングまでの時間に応じたワークの移動距離を算出する。当該移動距離は、コンベアの移動速度などから算出される。制御装置101は、実空間の移動距離を画像内の距離(以下、「画像内距離」ともいう。)に変換する。制御装置101は、今回計測されたワークの内、前回計測されたワークの各位置からワークの移動方向に画像内距離だけ進んだ位置に存在するものについては、前回計測されたものとして計測結果124から除去する。
ステップS118において、制御装置101は、上述の特定部154(図4参照)として、計測された各ワークにワーク群IDを付与する。より具体的には、制御装置101は、計測された各ワークについてワーク間距離を算出する。制御装置101は、他のワークと所定距離以上離れているワークについてはワーク群ID「0」を付与する。すなわち、ワーク群ID「0」が付与されるワークは、孤立ワークとしてみなされる。一方で、制御装置101は、ワーク間距離が所定値よりも短いワークの集合を1つのワーク群としてみなし、ワーク群ID(たとえば、「1」~「999」のいずれか)をワーク群別に付与する。ワーク群IDは、ワーク群に付与される度にインクリメントされる。付与されたワーク群IDは、計測結果124に書き込まれる。
ステップS120において、制御装置101は、特定部154として、ステップS118で認識された各ワーク群についてワークの重なり順を特定する。より具体的には、制御装置101は、ステップS114で計測された輝度画像内における各ワークの位置に対応する領域(すなわち、対応領域)を距離画像から特定し、当該対応領域内に示される高さ情報に基づいて、各ワークの重なり順をワーク群ごとに特定する。特定された重なり順は、計測結果124に書き込まれる。
ステップS130において、制御装置101は、計測処理を終了するか否かを判断する。一例として、制御装置101は、計測処理を終了するためのユーザ操作を受け付けた場合に、計測処理を終了すると判断する。制御装置101は、計測処理を終了すると判断した場合(ステップS130においてYES)、図9に示される処理を終了する。そうでない場合には(ステップS130においてNO)、制御装置101は、制御をステップS110に戻す。
(G2.ワークの登録処理)
次に、図10を参照して、PLC200によるエンキュー処理について説明する。
ステップS210において、制御装置201は、上述の図9の計測処理により得られた計測結果124を画像センサ100から受信する。
ステップS210において、制御装置201は、変数「i」を初期化する。変数「i」は、たとえば、0に初期化される。
ステップS212において、制御装置201は、計測結果124を参照して、コンベアの搬送経路の下流から「i+1」番目に位置するワークをキュー225への登録対象として選択する。
ステップS220において、制御装置201は、登録対象のワークが孤立ワークであるか否かを判断する。このとき、制御装置201は、計測結果124を参照して、登録対象のワークに付与されているワーク群IDが「0」である場合に、登録対象のワークが孤立ワークであると判断する。制御装置201は、登録対象のワークが孤立ワークであると判断した場合(ステップS220においてYES)、制御をステップS234に切り替える。そうでない場合には(ステップS220においてNO)、制御装置201は、制御をステップS230に切り替える。
ステップS230において、制御装置201は、計測結果124を参照して、登録対象のワークが属するワーク群の中で当該ワークの重なり順が最上位であるか否かを判断する。制御装置201は、登録対象のワークが属するワーク群の中で当該ワークの重なり順が最上位であると判断した場合(ステップS230においてYES)、制御をステップS234に切り替える。そうでない場合には(ステップS230においてNO)、制御装置201は、制御をステップS232に切り替える。
ステップS232において、制御装置201は、制御装置201は、変数「i」をインクリメントする。すなわち、制御装置201は、変数「i」の値を1増加する。
ステップS234において、制御装置201は、上述の決定部254(図4参照)として、登録対象のワークをキュー225に登録する。
ステップS236において、制御装置201は、計測結果124を更新する。より具体的には、制御装置201は、キュー225に登録したワークを計測結果124から削除するとともに、登録対象のワークと同一のワーク群に属する他のワークの重なり順を更新する。また、制御装置201は、計測結果124に含まれるワークの内、ロボット300の作業エリアAR2(図1参照)を通過したワークを計測結果124から除去する。
ステップS240において、制御装置201は、エンキュー処理を終了するか否かを判断する。一例として、制御装置201は、エンキュー処理を終了するためのユーザ操作を受け付けた場合に、エンキュー処理を終了すると判断する。制御装置201は、エンキュー処理を終了すると判断した場合(ステップS240においてYES)、図10に示される処理を終了する。そうでない場合には(ステップS240においてNO)、制御装置201は、制御をステップS210に戻す。
(G3.ワークのピックアップ処理)
次に、図11を参照して、PLC200によるデキュー処理について説明する。
ステップS310において、制御装置201は、上述のロボット制御部258(図4参照)として、コンベア20Aを搬送されるワークがロボット300の作業エリアAR2(図1参照)に到達しているか否かを判断する。一例として、制御装置201は、各ワークをトラッキングし、いずれかのワークが作業エリアAR2を表わす予め定められた領域に含まれている場合に、ワークが作業エリアに到達していると判断する。制御装置201は、コンベア20Aを搬送されるワークがロボット300の作業エリアAR2に到達していると判断した場合(ステップS310においてYES)、制御をステップS312に切り替える。そうでない場合には(ステップS310においてNO)、制御装置201は、ステップS310の処理を再び実行する。
ステップS312において、制御装置201は、ロボット制御部258として、ピックアップ対象のワークをキュー225から取得する。このとき、制御装置201は、より先に登録されたワークをキュー225から取得する。
ステップS314において、制御装置201は、ロボット制御部258として、ステップS312でキュー225から取得したワークをピックアップするための動作指示を生成し、当該動作指示をロボット300に出力する。
ステップS320において、制御装置201は、ロボット300によるワークの移動が完了したか否かを判断する。一例として、制御装置201は、ワークのプレースの完了を示す信号をロボット300から受信した場合に、ワークの移動が完了したと判断する。制御装置201は、ロボット300によるワークの移動が完了したと判断した場合(ステップS320においてYES)、制御をステップS330に切り替える。そうでない場合には(ステップS320においてNO)、制御装置201は、ステップS320の処理を再び実行する。
ステップS330において、制御装置201は、デキュー処理を終了するか否かを判断する。一例として、制御装置201は、デキュー処理を終了するためのユーザ操作を受け付けた場合に、デキュー処理を終了すると判断する。制御装置201は、デキュー処理を終了すると判断した場合(ステップS330においてYES)、図11に示される処理を終了する。そうでない場合には(ステップS330においてNO)、制御装置201は、制御をステップS310に戻す。
[H.画像センサ100のハードウェア構成]
図12を参照して、本実施の形態に従う画像センサ100のハードウェア構成について説明する。図12は、本実施の形態に従う画像センサ100のハードウェア構成を示す模式図である。
画像センサ100は、一例として、汎用的なコンピュータアーキテクチャに準じて構成されるコンピュータからなる。画像センサ100は、制御装置101と、主メモリ102と、通信インターフェイス103と、カメラインターフェイス104と、PLCインターフェイス105と、光学ドライブ107と、記憶装置120(記憶部)とを含む。これらのコンポーネントは、内部バス119を介して互いに通信可能に接続されている。
制御装置101は、たとえば、少なくとも1つの集積回路によって構成される。集積回路は、たとえば、少なくとも1つのCPU(Central Processing Unit)、少なくとも1つのASIC(Application Specific Integrated Circuit)、少なくとも1つのFPGA(Field Programmable Gate Array)、またはそれらの組み合わせなどによって構成される。制御装置101は、記憶装置120に格納されている画像処理プログラム122を主メモリ102に展開して実行することで、本実施の形態に従う各種処理を実現する。主メモリ102は、揮発性メモリにより構成され、制御装置101によるプログラム実行に必要なワークメモリとして機能する。
通信インターフェイス103は、外部機器との間でネットワークを介してデータを遣り取りする。外部機器は、たとえば、上述のカウンタ127(図1参照)、上述の撮影装置130(図1参照)、上述のPLC200(図1参照)、サーバー、その他の通信機器などを含む。画像センサ100は、通信インターフェイス103を介して、本実施の形態に従う画像処理プログラム122をダウンロードできるように構成されてもよい。
カメラインターフェイス104は、上述の撮影装置130と接続される。カメラインターフェイス104は、撮影装置130の撮影により得られる画像信号を取り込むとともに、撮影装置130を介して撮影装置130に撮影タイミングなどの指令を送る。撮影装置130は、一例として、レンズなどの光学系に加えて、CCD(Coupled Charged Device)やCMOS(Complementary Metal Oxide Semiconductor)センサといった、複数の画素に区画された撮像素子を含んで構成される。
PLCインターフェイス105は、PLC200に接続される。PLC200は、PLCインターフェイス105介してワークの計測結果などをPLC200に送る。
光学ドライブ107は、光学ディスク107Aなどから、その中に格納されている各種プログラムを読み出して、記憶装置120にインストールする。記憶装置120は、たとえば、画像処理プログラム122などを格納する。
図12には、光学ドライブ107を介して必要なプログラムを画像センサ100にインストールする構成例を示すが、これに限られることなく、ネットワーク上のサーバー装置などからダウンロードするようにしてもよい。あるいは、画像センサ100上のプログラムは、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード、CF(Compact Flash)などの記憶媒体に書き込まれているプログラムによって書き換えられるように構成されてもよい。
記憶装置120は、たとえば、ハードディスクや外付けの記憶媒体である。一例として、記憶装置120は、本実施の形態に従う各種の処理を実現するための画像処理プログラム122と、上述の計測結果124(図4参照)、計測対象のワークの基準となるモデル画像126とを格納する。
画像処理プログラム122は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、任意のプログラムと協働して本実施の形態に従う処理が実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従う画像センサ100の趣旨を逸脱するものではない。さらに、本実施の形態に従う画像処理プログラム122によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、画像センサ100とPLC200とロボット300との内の少なくとも2つが協働して、本実施の形態に従う処理を実現するようにしてもよい。さらに、少なくとも1つのサーバーが本実施の形態に従う処理を実現する、所謂クラウドサービスの形態で画像センサ100が構成されてもよい。
[I.PLC200のハードウェア構成]
図13を参照して、本実施の形態に従うPLC200のハードウェア構成について説明する。図13は、PLC200のハードウェア構成例を示すブロッグ図である。
PLC200は、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)などの制御装置201と、チップセット202と、主メモリ206と、記憶装置220と、ローカルネットワークコントローラ203と、USB(Universal Serial Bus)コントローラ204と、メモリカードインターフェイス205と、内部バスコントローラ210と、フィールドバスコントローラ208,209と、I/Oユニット211-1,211-2,…とを含む。
制御装置201は、記憶装置220に格納された各種プログラムを読み出して、主メモリ206に展開して実行することで、制御対象に応じた制御、および、本実施の形態に従う処理などを実現する。チップセット202は、制御装置201と各コンポーネントを制御することで、PLC200全体としての処理を実現する。
記憶装置220は、たとえば、二次記憶装置である。記憶装置220には、PLCエンジンを実現するためのシステムプログラムに加えて、PLCエンジンを利用して実行されるユーザプログラム221や上述のキュー225(図4参照)などが格納される。ユーザプログラム221は、論理的な演算を主とするシーケンスシーケンスプログラム222、位置制御や速度制御などの数値的な演算を主とするモーションプログラム223、本実施の形態に従う処理を実現するための演算を主とする制御プログラム224などを含む。
ローカルネットワークコントローラ203は、ローカルネットワークを介した他の装置(たとえば、サーバーなど)との間のデータの遣り取りを制御する。USBコントローラ204は、USB接続を介して他の装置(たとえば、PC(Personal Computer)など)との間のデータの遣り取りを制御する。
メモリカードインターフェイス205は、メモリカード216を着脱可能に構成されており、メモリカード216に対してデータを書込み、メモリカード216から各種データ(ユーザプログラムやトレースデータなど)を読出すことが可能になっている。
内部バスコントローラ210は、PLC200に搭載されるI/Oユニット211-1,211-2,…との間でデータを遣り取りするインターフェイスである。
フィールドバスコントローラ208は、フィールドネットワークNW1を介した他の装置(たとえば、画像センサ100やカウンタ127など)との間のデータの遣り取りを制御する。同様に、フィールドバスコントローラ209は、フィールドネットワークNW2を介した他の装置(たとえば、ロボット300)との間のデータの遣り取りを制御する。
図13には、制御装置201がプログラムを実行することで必要な機能が提供される構成例を示したが、これらの提供される機能の一部または全部を、専用のハードウェア回路(たとえば、ASIC(Application Specific Integrated Circuit)またはFPGA(Field-Programmable Gate Array)など)を用いて実装してもよい。あるいは、PLC200の主要部を、汎用的なアーキテクチャに従うハードウェア(たとえば、汎用パソコンをベースとした産業用パソコン)を用いて実現してもよい。この場合には、仮想化技術を用いて、用途の異なる複数のOS(Operating System)を並列的に実行させるとともに、各OS上で必要なアプリケーションを実行させるようにしてもよい。
[J.第1の実施の形態のまとめ]
以上のようにして、本実施の形態に従う画像センサ100は、被写体を表わす輝度画像と、コンベア20A上から被写体の各点までの高さからなる距離画像とを取得する。画像センサ100は、ワークを計測するための所定の画像処理を実行することで、輝度画像内から各ワークの位置を計測する。その後、画像センサ100は、輝度画像内における各ワークの位置に対応する領域(すなわち、対応領域)を距離画像から特定し、当該対応領域内に示される高さ情報に基づいて、各ワークの重なり順を特定する。画像センサ100は、重なり順が上位であるワークから順にピックアップするようにピックアップ順を決定する。
これにより、ロボット300は、上側に存在するワークから順にピックアップすることができる。ロボット300は、上側のワークから順にピックアップすることで、各ワークを互いに干渉させずにピックアップすることができる。その結果、画像センサ100は、ワークの位置を再度計測する必要がなくなり、ワークを効率的にピックアップすることができる。
<第2の実施の形態>
[A.概要]
第1の実施の形態に従う画像処理システム1は、決定されたピックアップ順に従ってワークをピックアップし、当該ワークを容器にプレースさせていた。これに対して、第2の実施の形態に従う画像処理システム1は、決定されたピックアップ順に従ってワークをピックアップし、コンベア上でワークを整列する。
第2の実施の形態に従う画像処理システム1におけるその他の点については第1の実施の形態に従う画像処理システム1と同じであるので、以下では、それらの説明については繰り返さない。
[B.画像処理システム1]
図14を参照して、第2の実施の形態に従う画像処理システム1の基本構成について説明する。図14は、第2の実施の形態に従う画像処理システム1の基本構成を示す模式図である。
図14に示されるように、本実施の形態に従う画像処理システム1は、ロボット300だけでなく、ロボット300Aをさらに含む。そのため、PLC200には、ロボット300を制御するためのサーボドライバ230だけでなく、ロボット300Aを制御するためのサーボドライバ230Aがさらに設けられる。
ロボット300Aは、PLC200によって決定されたワークのピックアップ順に従ってワークWをピックアップし、各ワークWがコンベア20A上で重ならないようにワークWを整列する。ワークWのピックアップ順の決定方法は上述の通りであるので、その説明については説明を繰り返さない。
後段のロボット300は、整列されたワークWを容器Bに移動する。このとき、各ワークWは、前段のロボット300Aによって互いに重ならないように整列されているので、後段のロボット300は、任意のワークを任意の順でピックアップすることができる。
なお、図14には、1つずつワークをピックアップするロボット300が示されているが、複数のワークWを一度にピックアップすることが可能なロボット300が採用されてもよい。この場合、各ワークWは、前段のロボット300Aによって互いに重ならないように整列されているので、ロボット300は、複数のワークを容易にピックアップすることができる。その結果、複数種類のワーク(たとえば、かやく)を一度に容器Bに運ぶことが可能になり、ワークのピック&プレースの効率が大幅に改善される。
[C.第2の実施の形態のまとめ]
以上のようにして、本実施の形態においては、前段のロボット300Aが、決定されたピックアップ順に従ってコンベア20A上にワークWを整列し、後段のロボット300が整列後のワークWを容器に運ぶ。このとき、ワークWは、前段のロボット300Aによって互いに重ならないように整列されているので、後段のロボット300は、任意のワークWを任意の順で容器Bに運ぶことができる。
<第3の実施の形態>
[A.概要]
第1の実施の形態においては、撮影装置130は、1つの投光部と1つの受光部とで構成されていた(図2参照)。これに対して、第3の実施の形態に従うにおいては、撮影装置130は、1つの投光部と2つの受光部とで構成される。
第3の実施の形態に従う画像処理システム1におけるその他の点については第1の実施の形態に従う画像処理システム1と同じであるので、以下では、それらの説明については繰り返さない。
[B.画像処理システム1]
図15を参照して、第3の実施の形態に従う撮影装置130について説明する。図15は、撮影装置130の一例を示す図である。図15には、コンベア20Aを搬送されるワークWを撮影装置130が撮影している様子が示されている。
撮影装置130は、受光部131,133と、投光部132とを含む。受光部131および投光部132は、距離画像を生成するために設けられている。距離画像は、光切断法で生成される。より具体的には、投光部132は、ワークWの搬送方向と直交する方向に広がったライン状の光LTをワークWに投光する。受光部131(第1受光部)は、ワークWから光LTの反射光を順次受け、各受光タイミングにおける反射光の受光位置に基づいて距離画像を生成する。
典型的には、受光部131は、2次元に配置された複数の受光素子で構成される。光LTの反射光が入射する受光素子は、撮影装置130から被写体までの距離に応じて変わる。すなわち、受光部131が被写体からの光LTの反射光を撮像すると、ラインLN上のプロファイルが得られる。当該プロファイルに三角測量を応用すると、コンベア20Aの搬送面からラインLN上の被写体の各点までの高さ情報が得られる。撮影装置130は、得られた高さ情報を時系列に並べることで距離画像を生成する。
一方で、受光部133(第2受光部)は、撮影視野AR3に含まれる被写体から外光の反射光を受けて、当該被写体を表わす輝度画像を生成する。距離画像および輝度画像は、異なる視点から撮影して得られたものであるので、距離画像に写る被写体の位置と輝度画像に写る被写体の位置とが異なってしまう。そのため、画像センサ100は、距離画像および輝度画像の一方を他方に位置合わせする。距離画像内の被写体と輝度画像内の被写体とのずれ量は、受光部131,133の位置関係が決まれば一意に決まるので、画像センサ100は、受光部131,133の予め定められた位置関係に基づいて位置合わせを行う。その上で、画像センサ100は、輝度画像内における各ワークの位置に対応する領域(すなわち、対応領域)を距離画像から特定し、当該対応領域内に示される高さ情報に基づいて、各ワークの重なり順を特定する。
[C.第3の実施の形態のまとめ]
以上のようにして、本実施の形態に従う画像処理システム1は、距離画像を生成するための受光部131,投光部132と、輝度画像を生成するための受光部133とを有する。これにより、受光部133は、投光部132の影響を受けずに輝度画像を生成することができるので、ワークの計測精度が向上する。結果として、画像センサ100は、ワークの重なり順を正確に特定することができる。
今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。
1 画像処理システム、2 画像処理装置、20A コンベア、30A,30B ワーク群、40 輝度画像、41A~41C,51A~51C,72A,72B ワーク領域、50,80 距離画像、73A,73B,83A,83B 中心点、82A,82B 対応領域、100 画像センサ、101,201 制御装置、102,206 主メモリ、103 通信インターフェイス、104 カメラインターフェイス、105 PLCインターフェイス、107 光学ドライブ、107A 光学ディスク、119 内部バス、120,220 記憶装置、122 画像処理プログラム、124 計測結果、126 モデル画像、127 カウンタ、128 エンコーダ、130 撮影装置、131,133 受光部、132 投光部、152 計測部、154 特定部、202 チップセット、203 ローカルネットワークコントローラ、204 コントローラ、205 メモリカードインターフェイス、208,209 フィールドバスコントローラ、210 内部バスコントローラ、211 I/Oユニット、216 メモリカード、221 ユーザプログラム、222 シーケンスシーケンスプログラム、223 モーションプログラム、224 制御プログラム、225 キュー、230,230A サーボドライバ、231 表示装置、232 入力装置、252 受信部、254 決定部、256 更新部、258 ロボット制御部。

Claims (9)

  1. コンベア上を搬送される重なり合った複数のワークについてロボットによるピックアップ順を決定するための画像処理システムであって、
    前記コンベアが撮影視野に含まれるように配置され、前記撮影視野に含まれる被写体を撮影するための撮影部を備え、
    前記撮影部は、前記被写体を撮影することで、前記被写体を表わす輝度画像と、前記コンベア上から前記被写体の各点までの高さからなる距離画像とを生成し、さらに、
    前記輝度画像内において前記複数のワークのそれぞれを表わす各ワーク領域を計測するための計測部と、
    前記輝度画像内の前記各ワーク領域と同位置にある対応領域を前記距離画像内において特定し、当該対応領域における画素値が所定値より大きい部分をエッジとして検知し、前記エッジに含まれる複数のエッジ点の各々から前記対応領域の中心点までの高さ値の積算値に基づいて、前記複数のワークの重なり順を特定するための特定部と、
    前記複数のワークの内、前記重なり順が最上位であるワークを他のワークよりも優先的にピックアップするように前記ピックアップ順を決定するための決定部とを備える、画像処理システム。
  2. 前記決定部は、前記重なり順が上位であるワークから順にピックアップするように前記ピックアップ順を決定する、請求項1に記載の画像処理システム。
  3. 前記特定部は、重なり合った複数のワークからなるワーク群が前記輝度画像内に複数含まれる場合には、各ワーク群についてワークの重なり順を特定し、
    前記決定部は、各ワーク群において前記重なり順が最上位であるワークの内、前記コンベアの搬送経路においてより下流側に存在するワークを優先的にピックアップするように前記ピックアップ順を決定する、請求項1または2に記載の画像処理システム。
  4. 前記決定部は、他のワークと重なり合っていないワークと、重なり合った複数のワークとが前記輝度画像内に含まれる場合には、当該重なり合っていないワークと、当該重なり合った複数のワークにおいて前記重なり順が最上位であるワークとの内、前記コンベアの搬送経路においてより下流側に存在するワークを優先的にピックアップするように前記ピックアップ順を決定する、請求項1~のいずれか1項に記載の画像処理システム。
  5. 前記撮影部は、
    前記複数のワークの搬送方向と直交する方向に広がったライン状の光を、前記コンベア上を搬送される前記複数のワークに投光するための投光部と、
    前記コンベア上を搬送される前記複数のワークから前記光の反射光を順次受け、各受光タイミングにおける当該反射光の受光位置に基づいて前記距離画像を生成するとともに、前記撮影視野に含まれる前記被写体からの反射光を受けて前記輝度画像を生成するための受光部とを含む、請求項1~のいずれか1項に記載の画像処理システム。
  6. 前記撮影部は、
    前記複数のワークの搬送方向と直交する方向に広がったライン状の光を、前記コンベア上を搬送される前記複数のワークに投光するための投光部と、
    前記コンベアを搬送される前記複数のワークから前記光の反射光を順次受け、各受光タイミングにおける当該反射光の受光位置に基づいて前記距離画像を生成するための第1受光部と、
    前記撮影視野に含まれる前記被写体からの反射光を受けて前記輝度画像を生成するための第2受光部とを含む、請求項1~のいずれか1項に記載の画像処理システム。
  7. コンベア上を搬送される重なり合った複数のワークについてロボットによるピックアップ順を決定するための画像処理装置であって、
    前記コンベアが撮影視野に含まれるように配置され、前記撮影視野に含まれる被写体を撮影するための撮影部を備え、
    前記撮影部は、前記被写体を撮影することで、前記被写体を表わす輝度画像と、前記コンベア上から前記被写体の各点までの高さからなる距離画像とを生成し、さらに、
    前記輝度画像内において前記複数のワークのそれぞれを表わす各ワーク領域を計測するための計測部と、
    前記輝度画像内の前記各ワーク領域と同位置にある対応領域を前記距離画像内において特定し、当該対応領域における画素値が所定値より大きい部分をエッジとして検知し、前記エッジに含まれる複数のエッジ点の各々から前記対応領域の中心点までの高さ値の積算値に基づいて、前記複数のワークの重なり順を特定するための特定部と、
    前記複数のワークの内、前記重なり順が最上位であるワークを他のワークよりも優先的にピックアップするように前記ピックアップ順を決定するための決定部とを備える、画像処理装置。
  8. コンベア上を搬送される重なり合った複数のワークについてロボットによるピックアップ順を決定するためのピックアップ方法であって、
    前記コンベアが撮影視野に含まれるように配置され撮影部を用いて前記撮影視野に含まれる被写体を撮影するステップを備え、
    前記撮影するステップは、前記被写体を撮影することで、前記被写体を表わす輝度画像と、前記コンベア上から前記被写体の各点までの高さからなる距離画像とを生成するステップを含み、さらに、
    前記輝度画像内において前記複数のワークのそれぞれを表わす各ワーク領域を計測するステップと、
    前記輝度画像内の前記各ワーク領域と同位置にある対応領域を前記距離画像内において特定し、当該対応領域における画素値が所定値より大きい部分をエッジとして検知し、前記エッジに含まれる複数のエッジ点の各々から前記対応領域の中心点までの高さ値の積算値に基づいて、前記複数のワークの重なり順を特定するステップと、
    前記複数のワークの内、前記重なり順が最上位であるワークを他のワークよりも優先的にピックアップするように前記ピックアップ順を決定するステップとを備える、ピックアップ方法。
  9. コンベア上を搬送される重なり合った複数のワークについてロボットによるピックアップ順を決定するためのピックアッププログラムあって、
    前記ピックアッププログラムは、コンピュータに、
    前記コンベアが撮影視野に含まれるように配置され撮影部を用いて前記撮影視野に含まれる被写体を撮影するステップを備え、
    前記撮影するステップは、前記被写体を撮影することで、前記被写体を表わす輝度画像と、前記コンベア上から前記被写体の各点までの高さからなる距離画像とを生成するステップを含み、さらに、
    前記輝度画像内において前記複数のワークのそれぞれを表わす各ワーク領域を計測するステップと、
    前記輝度画像内の前記各ワーク領域と同位置にある対応領域を前記距離画像内において特定し、当該対応領域における画素値が所定値より大きい部分をエッジとして検知し、前記エッジに含まれる複数のエッジ点の各々から前記対応領域の中心点までの高さ値の積算値に基づいて、前記複数のワークの重なり順を特定するステップと、
    前記複数のワークの内、前記重なり順が最上位であるワークを他のワークよりも優先的にピックアップするように前記ピックアップ順を決定するステップとを実行させる、ピックアッププログラム。
JP2017001627A 2017-01-10 2017-01-10 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム Active JP7047249B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017001627A JP7047249B2 (ja) 2017-01-10 2017-01-10 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
CN201710943152.9A CN108284443B (zh) 2017-01-10 2017-10-11 图像处理系统及处理装置、工件的拾取方法及记录介质
US15/787,788 US10407250B2 (en) 2017-01-10 2017-10-19 Image processing system, image processing apparatus, workpiece pickup method, and workpiece pickup program
EP17197551.9A EP3346446B1 (en) 2017-01-10 2017-10-20 Image processing system, image processing apparatus, workpiece pickup method, and workpiece pickup program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017001627A JP7047249B2 (ja) 2017-01-10 2017-01-10 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム

Publications (2)

Publication Number Publication Date
JP2018111140A JP2018111140A (ja) 2018-07-19
JP7047249B2 true JP7047249B2 (ja) 2022-04-05

Family

ID=60301760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017001627A Active JP7047249B2 (ja) 2017-01-10 2017-01-10 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム

Country Status (4)

Country Link
US (1) US10407250B2 (ja)
EP (1) EP3346446B1 (ja)
JP (1) JP7047249B2 (ja)
CN (1) CN108284443B (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6687591B2 (ja) * 2017-12-26 2020-04-22 ファナック株式会社 物品搬送装置、ロボットシステムおよび物品搬送方法
JP6763914B2 (ja) 2018-06-08 2020-09-30 ファナック株式会社 ロボットシステムおよびロボットシステムの制御方法
JP7022036B2 (ja) 2018-08-31 2022-02-17 ファナック株式会社 物品取出システム
US20200095001A1 (en) * 2018-09-26 2020-03-26 Dexterity, Inc. Robotic kitting system
US11731792B2 (en) 2018-09-26 2023-08-22 Dexterity, Inc. Kitting machine
DE102018126050A1 (de) * 2018-10-19 2020-04-23 Fraunhofer-Gesellschaft für die angewandte Forschung e.V. Verfahren zum absortiervorgang unterstützenden anzeigen von werkstück-darstellungen
JP7275759B2 (ja) * 2019-03-28 2023-05-18 セイコーエプソン株式会社 物体検出方法、物体検出装置およびロボットシステム
JP7178954B2 (ja) * 2019-04-25 2022-11-28 東急建設株式会社 物体選別システム
JP7183941B2 (ja) * 2019-05-09 2022-12-06 トヨタ自動車株式会社 ワーク識別方法
JP7120153B2 (ja) * 2019-05-21 2022-08-17 トヨタ自動車株式会社 ワーク識別方法
JP7328017B2 (ja) * 2019-06-11 2023-08-16 ファナック株式会社 ロボットシステム及び制御装置
CN110260666A (zh) * 2019-06-28 2019-09-20 九牧厨卫股份有限公司 一种卫生陶瓷品自动装窑装置及自动装窑方法
US20220241982A1 (en) * 2019-09-18 2022-08-04 Fuji Corporation Work robot and work system
JP7436170B2 (ja) * 2019-09-20 2024-02-21 ファナック株式会社 ロボットシステム
JP7513381B2 (ja) * 2019-09-27 2024-07-09 ファナック株式会社 ワークを検出する検出システム
EP4051608A4 (en) * 2019-11-01 2023-11-22 ATS Automation Tooling Systems Inc. SYSTEM AND METHOD FOR HANDLING PARTS USING A LINEAR MOTOR CONVEYOR
TWI718064B (zh) * 2019-11-22 2021-02-01 馬來西亞商正齊科技有限公司 取放程序中搬運一組電子元件的方法
WO2021125288A1 (ja) * 2019-12-17 2021-06-24 株式会社安川電機 ロボットシステム、コントローラ及び制御方法
JP7316389B2 (ja) * 2020-02-03 2023-07-27 ファナック株式会社 ワーク加工装置及び加工制御方法
CN111880523A (zh) * 2020-06-12 2020-11-03 北京配天技术有限公司 工件跟踪方法、机器人、工件跟踪系统和存储介质
JP2022110868A (ja) * 2021-01-19 2022-07-29 株式会社イシダ 物品集積装置
JP2023042473A (ja) * 2021-09-14 2023-03-27 セイコーエプソン株式会社 教示方法
TWI832639B (zh) * 2022-06-21 2024-02-11 群邁通訊股份有限公司 物件取放方法及系統

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000304509A (ja) 1999-04-21 2000-11-02 Matsushita Electric Works Ltd 物体特定方法及び装置
JP2006300929A (ja) 2005-03-22 2006-11-02 Jfe Engineering Kk 物体の3次元位置認識装置およびデパレタイズシステム
JP2010184308A (ja) 2009-02-10 2010-08-26 Fanuc Ltd ワーク取り出し装置
JP2013000854A (ja) 2011-06-20 2013-01-07 Yaskawa Electric Corp ピッキングシステム
JP2014210310A (ja) 2013-04-18 2014-11-13 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP2015021758A (ja) 2013-07-16 2015-02-02 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法及び三次元画像処理プログラム並びにコンピュータで読み取り可能な記録媒体及び記録した機器

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5041907A (en) * 1990-01-29 1991-08-20 Technistar Corporation Automated assembly and packaging system
US5040056A (en) * 1990-01-29 1991-08-13 Technistar Corporation Automated system for locating and transferring objects on a conveyor belt
JPH08271223A (ja) * 1995-02-03 1996-10-18 Kobe Steel Ltd 物体の位置認識装置
JP3543442B2 (ja) * 1995-09-26 2004-07-14 松下電工株式会社 物品の干渉検出方法
US6658324B2 (en) * 2000-09-29 2003-12-02 Gpc Biotech Ag Pick and place robot system
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
GB2471819B (en) * 2008-06-05 2012-11-28 Toshiba Machine Co Ltd Handling system,control device,control method,and program
JP4565023B2 (ja) * 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP5265296B2 (ja) * 2008-10-10 2013-08-14 本田技研工業株式会社 ワーク取り出し方法
JP5659640B2 (ja) 2010-09-07 2015-01-28 富士電機株式会社 ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法
JP5316563B2 (ja) * 2011-02-15 2013-10-16 オムロン株式会社 画像処理装置および画像処理システム
JP5003840B1 (ja) * 2011-10-31 2012-08-15 オムロン株式会社 画像処理装置および画像処理プログラム
JP5642759B2 (ja) * 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
JP6242098B2 (ja) * 2013-07-16 2017-12-06 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法及び三次元画像処理プログラム並びにコンピュータで読み取り可能な記録媒体及び記録した機器
JP6285764B2 (ja) 2014-03-18 2018-02-28 株式会社庄内クリエート工業 袋同士の重なり解消機構を備えた搬送装置
JP5905549B1 (ja) * 2014-09-16 2016-04-20 ファナック株式会社 バラ積みされた物品を取出す物品取出装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000304509A (ja) 1999-04-21 2000-11-02 Matsushita Electric Works Ltd 物体特定方法及び装置
JP2006300929A (ja) 2005-03-22 2006-11-02 Jfe Engineering Kk 物体の3次元位置認識装置およびデパレタイズシステム
JP2010184308A (ja) 2009-02-10 2010-08-26 Fanuc Ltd ワーク取り出し装置
JP2013000854A (ja) 2011-06-20 2013-01-07 Yaskawa Electric Corp ピッキングシステム
JP2014210310A (ja) 2013-04-18 2014-11-13 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP2015021758A (ja) 2013-07-16 2015-02-02 株式会社キーエンス 三次元画像処理装置、三次元画像処理方法及び三次元画像処理プログラム並びにコンピュータで読み取り可能な記録媒体及び記録した機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Gustav Wikander,Three dimensional object recognition for robot conveyor picking,URL: https://www.diva-portal.org/smash/get/diva2:219202/FULLTEXT01.pdf,2009年05月26日

Also Published As

Publication number Publication date
EP3346446B1 (en) 2019-05-01
CN108284443B (zh) 2022-02-25
US10407250B2 (en) 2019-09-10
CN108284443A (zh) 2018-07-17
JP2018111140A (ja) 2018-07-19
US20180194573A1 (en) 2018-07-12
EP3346446A1 (en) 2018-07-11

Similar Documents

Publication Publication Date Title
JP7047249B2 (ja) 画像処理システム、画像処理装置、ワークのピックアップ方法、および、ワークのピックアッププログラム
CN111775154B (zh) 一种机器人视觉系统
US11049280B2 (en) System and method for tying together machine vision coordinate spaces in a guided assembly environment
US9652660B2 (en) Control system, robot system, and control method
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
CN103313921B (zh) 图像处理装置及图像处理系统
EP3961149A1 (en) Device, method, and program for detecting position and orientation of object
CN111673735A (zh) 一种基于单目视觉定位的机械臂控制方法及装置
US11667036B2 (en) Workpiece picking device and workpiece picking method
US9630322B2 (en) Information processing apparatus, method therefor, measurement apparatus, and working apparatus for estimating a position/orientation of a three-dimensional object based on relative motion
JP6364836B2 (ja) ロボット、ロボットシステム、及び制御装置
JP2019115974A (ja) ビジョンベース操作システムのキャリブレーション及びオペレーション
JP6834232B2 (ja) 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム
JP2018024044A (ja) 情報処理システム、情報処理装置、ワークの位置特定方法、およびワークの位置特定プログラム
CN111483750A (zh) 机器人系统的控制方法以及控制装置
JP2020075327A (ja) 制御システム
EP4245480A1 (en) Measuring system, measuring device, measuring method, and measuring program
CN114310892B (zh) 基于点云数据碰撞检测的物体抓取方法、装置和设备
JP2017202549A (ja) ロボット制御装置、ロボット、及びロボットシステム
CN111470244B (zh) 机器人系统的控制方法以及控制装置
JP2015226954A (ja) ロボット、ロボットの制御方法、及びロボットの制御装置
JP5581612B2 (ja) 位置計測システム及び位置計測方法
CN117068620A (zh) 料仓取料方法、装置、取料设备和存储介质
CN114332430A (zh) 用于防止过检测的碰撞检测方法、装置、设备和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R150 Certificate of patent or registration of utility model

Ref document number: 7047249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150