JP6576050B2 - 物体移動方法及びシステム - Google Patents
物体移動方法及びシステム Download PDFInfo
- Publication number
- JP6576050B2 JP6576050B2 JP2015039404A JP2015039404A JP6576050B2 JP 6576050 B2 JP6576050 B2 JP 6576050B2 JP 2015039404 A JP2015039404 A JP 2015039404A JP 2015039404 A JP2015039404 A JP 2015039404A JP 6576050 B2 JP6576050 B2 JP 6576050B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- place
- location
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
- G06V2201/121—Acquisition of 3D measurements of objects using special illumination
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/09—Closed loop, sensor feedback controls arm movement
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
Description
図1に、第一実施形態の物体移動システム1を示す。物体移動システム1は、処理部(情報処理装置)100と、測距部(センサ部)200と、ロボット(移動部)300と、パレット400を有する。物体移動システム1は、パレット400内にバラ置きされたワーク(物体)600をロボット300で掴んで、パレット400から取り出したり整列させたりするなどの移動を行う。ワークは、例えば、装置の部品などである。
図4に、各工程(各シーケンス)の実行順序の一例を表した図である。各工程を時系列で並べて表示している。ここでは、説明を簡単にするため、認識対象領域の設定工程は省略している。
本実施形態では、複数の場所を区切る区切部材の好適な配置と形状について説明する。図5(A)は、測距部200の構成の一例を表す図であり、測距部200は第一の光学部220と第二の光学部230からなり、三角測量の原理を基にして測距を行う構成である。例えば、ステレオ方式による測距の場合では、第一の光学部220と第二の光学部230の各々は撮像センサと撮像光学系を有する構成である。また、パターン投影方式による測距の場合では、第一の光学部220と第二の光学部230のどちらか一方は撮像センサと撮像光学系を有する構成であり、他方は光源と投影パターンを生成するパターン生成部と投影光学系を有する構成である。各光軸は、第一の光学部220の光軸240であり、第二の光学部230の光軸241である。
次に、図7を用いて第4実施形態を説明する。図7は物体移動システム2を表す図である。本実施形態では、第1実施形態の仕切りを有するパレットの代わりに、測距部200の測距が可能な視野(測距視野)の範囲に、複数のパレットを配置する構成をとる。なお、その他の構成は第一実施形態と同じ構成である。図7では、パレット402及び403が測距視野201の範囲におかれた構成を表している。この構成を用いれば、パレット402とパレット403は独立であるため、一方のパレットからワークを取り出しても他方のパレットのバラ置き状態が変化する事がない。よって、再び撮像工程を実行しなくても他方のパレットからはワークを取り出す事が可能である。従って、認識対象領域を各パレットに設定すれば、一回の撮像工程を実行するだけで各認識対象領域からそれぞれワークを取り出す事ができるため、ワークを取り出す総タクトを短くする事が出来る。なお、本実施形態では、パレットが二つの構成を用いて説明しているが、これに限定されず、3つ以上のパレットを有する構成で有っても構わない。
本実施形態では、ワーク認識装置3(処理システム)を独立させた形態について説明する。ワーク認識装置3は第一実施形態の測距部200と処理部100を有し、ワークの認識を可能にする装置である。この様にワーク認識装置を独立させた場合、例えば本実施形態のワーク認識装置と、市販されているロボットと、第一実施形態及び第二実施形態で説明したパレットや仕切りと、を用いてシステム設計を行う事ができる。ロボットマニピュレータは既に多種類の市販品があるため選択肢の幅が有り、ユーザーは用途によって従って選択を行う事が出来る。特に既にロボットを有するユーザーにとってみれば、本実施形態であるワーク認識装置を提供する事は有意義である。
Claims (14)
- 物体を撮像し、撮像して得られた画像を用いて物体の位置を認識し、認識された物体を移動させる処理を繰り返すことにより、複数の物体を移動させる移動方法であって、
物体が配置される第1場所と第2場所を区切る区切部材の推奨する配置に関する情報を表示する表示工程と、
前記区切部材で区切られた前記第1場所と前記第2場所の各々に第1状態でバラ置きされている複数の物体を撮像して、前記第1状態における画像を取得する撮像工程と、
前記第1状態における画像を用いて、前記第1場所に対応する第1部分領域内の第1物体の位置を認識する第1認識工程と、
前記第1状態における画像を用いて、前記第2場所に対応する第2部分領域内の第2物体の位置を認識する第2認識工程と、
前記第1認識工程で認識された前記第1物体を移動させる第1移動工程と、
前記第2認識工程で認識された前記第2物体を移動させる第2移動工程と、
を有することを特徴とする移動方法。 - 物体を撮像し、撮像して得られた画像を用いて物体の位置を認識し、認識された物体を移動させる処理を繰り返すことにより、複数の物体を移動させる移動方法であって、
物体が配置される第1場所と第2場所とを区切る複数のパレットの推奨する配置に関する情報を表示する表示工程と、
前記複数のパレットにより区切られた前記第1場所と前記第2場所の各々に第1状態でバラ置きされている複数の物体を撮像して、前記第1状態における画像を取得する撮像工程と、
前記第1状態における画像を用いて、前記第1場所に対応する第1部分領域内の第1物体の位置を認識する第1認識工程と、
前記第1状態における画像を用いて、前記第2場所に対応する第2部分領域内の第2物体の位置を認識する第2認識工程と、
前記第1認識工程で認識された前記第1物体を移動させる第1移動工程と、
前記第2認識工程で認識された前記第2物体を移動させる第2移動工程と、
を有することを特徴とする移動方法。 - 前記表示工程において、撮像して得られた画像を表示する表示部が、前記画像内に前記配置に関する情報を表示することを特徴とする請求項1又は2に記載の移動方法。
- 前記撮像工程において、パターン光を物体に投影する投影光学系を用いて前記パターン光を物体に投影して前記物体で反射されたパターン光を撮像し、
前記表示工程において、前記投影光学系が、前記配置に関するパターン光を投影する、ことを特徴とする請求項1又は2に記載の移動方法。 - 前記撮像工程において、三角測量用の複数の光学系で前記物体を撮像し、
前記撮像工程において、撮像画面内において、前記第1場所と前記第2場所を区切る区切部材の長手方向が、前記複数の光学系の各々の光軸を含む面に沿って配置されていることを特徴とする請求項1に記載の移動方法。 - 前記撮像工程において、三角測量用の複数の光学系で、パレット内にある前記物体を撮像し、
前記撮像工程において、前記複数の光学系の各々の光軸を含む面に対して垂直な断面において、前記第1場所と前記第2場所を区切る区切部材の側面と前記パレットの内底との成す角が鋭角となるように前記区切部材が配置されていることを特徴とする請求項1に記載の移動方法。 - 前記区切部材の推奨する配置は、前記区切部材の推奨する方向であることを特徴とする請求項1に記載の移動方法。
- 前記複数のパレットの推奨する配置は、前記複数のパレットの並びであることを特徴とする請求項2に記載の移動方法。
- 撮像された物体の画像を取得する取得部と、
前記画像を用いて物体の位置を認識する認識部と、を有するシステムであって、
物体が配置される第1場所と第2場所を区切る区切部材の推奨する配置に関する情報を表示する表示部を有し、
前記取得部は、
前記区切部材によって区切られた前記第1場所と前記第2場所の各々に第1状態でバラ置きされている複数の物体を撮像することによって得られる、前記第1状態における画像を取得し、
前記認識部は、
前記第1状態における画像を用いて、前記第1場所に対応する第1部分領域内の第1物体および前記第2場所に対応する第2部分領域内の第2物体の位置を認識する、
ことを特徴とするシステム。 - 撮像された物体の画像を取得する取得部と、
前記画像を用いて物体の位置を認識する認識部と、を有するシステムであって、
物体が配置される第1場所と第2場所とを区切る複数のパレットの推奨する配置に関する情報を表示する表示部を有し、
前記取得部は、
前記複数のパレットによって区切られた前記第1場所と前記第2場所の各々に第1状態でバラ置きされている複数の物体を撮像することによって得られる、前記第1状態における画像を取得し、
前記認識部は、
前記第1状態における画像を用いて、前記第1場所に対応する第1部分領域内の第1物体および前記第2場所に対応する第2部分領域内の第2物体の位置を認識する、
ことを特徴とするシステム。 - 前記表示部は、撮像して得られた画像を表示し、前記画像内に前記配置に関する情報を表示することを特徴とする請求項9又は10に記載のシステム。
- 前記表示部は、パターン光を物体に投影する投影光学系であって、前記投影光学系が前記配置に関するパターン光を投影する、ことを特徴とする請求項9又は10に記載のシステム。
- 前記区切部材の推奨する配置は、前記区切部材の推奨する方向であることを特徴とする請求項9に記載のシステム。
- 前記複数のパレットの推奨する配置は、前記複数のパレットの並びであることを特徴とする請求項10に記載のシステム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015039404A JP6576050B2 (ja) | 2015-02-27 | 2015-02-27 | 物体移動方法及びシステム |
US15/051,549 US9916512B2 (en) | 2015-02-27 | 2016-02-23 | Information processing apparatus, processing system, object moving system, and object moving method |
CN201610107874.6A CN105922268B (zh) | 2015-02-27 | 2016-02-26 | 信息处理装置、处理系统、物体移动系统和物体移动方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015039404A JP6576050B2 (ja) | 2015-02-27 | 2015-02-27 | 物体移動方法及びシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016159387A JP2016159387A (ja) | 2016-09-05 |
JP6576050B2 true JP6576050B2 (ja) | 2019-09-18 |
Family
ID=56798992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015039404A Expired - Fee Related JP6576050B2 (ja) | 2015-02-27 | 2015-02-27 | 物体移動方法及びシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9916512B2 (ja) |
JP (1) | JP6576050B2 (ja) |
CN (1) | CN105922268B (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10252417B2 (en) * | 2016-03-02 | 2019-04-09 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling information processing apparatus, and storage medium |
US10318843B2 (en) * | 2016-03-30 | 2019-06-11 | Rakuten Kobo, Inc. | Method and apparatus for image processing and comparison based on spatial relationships between image features |
JP2018034242A (ja) * | 2016-08-31 | 2018-03-08 | セイコーエプソン株式会社 | ロボット制御装置、ロボット、及びロボットシステム |
KR102474345B1 (ko) * | 2016-12-14 | 2022-12-05 | 현대자동차 주식회사 | 차량용 갭 단차 측정기를 구비한 갭 단차 측정 시스템 |
US10360531B1 (en) * | 2016-12-19 | 2019-07-23 | Amazon Technologies, Inc. | Robot implemented item manipulation |
JP7233858B2 (ja) * | 2018-06-13 | 2023-03-07 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
JP7467041B2 (ja) * | 2018-09-27 | 2024-04-15 | キヤノン株式会社 | 情報処理装置、情報処理方法及びシステム |
JP2020142323A (ja) * | 2019-03-06 | 2020-09-10 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4199264B2 (ja) * | 2006-05-29 | 2008-12-17 | ファナック株式会社 | ワーク取り出し装置及び方法 |
JP5273146B2 (ja) * | 2008-08-27 | 2013-08-28 | 村田機械株式会社 | ピッキングシステムおよびピッキング方法 |
JP5201411B2 (ja) * | 2008-11-21 | 2013-06-05 | 株式会社Ihi | バラ積みピッキング装置とその制御方法 |
JP5685027B2 (ja) * | 2010-09-07 | 2015-03-18 | キヤノン株式会社 | 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム |
JP2013078825A (ja) * | 2011-10-04 | 2013-05-02 | Yaskawa Electric Corp | ロボット装置、ロボットシステムおよび被加工物の製造方法 |
JP5582126B2 (ja) * | 2011-10-13 | 2014-09-03 | 株式会社安川電機 | ワーク取出システム、ロボット装置および被加工物の製造方法 |
JP2014176922A (ja) * | 2013-03-14 | 2014-09-25 | Yaskawa Electric Corp | ロボットシステムおよび被加工物の製造方法 |
-
2015
- 2015-02-27 JP JP2015039404A patent/JP6576050B2/ja not_active Expired - Fee Related
-
2016
- 2016-02-23 US US15/051,549 patent/US9916512B2/en not_active Expired - Fee Related
- 2016-02-26 CN CN201610107874.6A patent/CN105922268B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN105922268B (zh) | 2019-05-03 |
JP2016159387A (ja) | 2016-09-05 |
CN105922268A (zh) | 2016-09-07 |
US20160253562A1 (en) | 2016-09-01 |
US9916512B2 (en) | 2018-03-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6576050B2 (ja) | 物体移動方法及びシステム | |
JP6140204B2 (ja) | 3次元センサを備えた搬送ロボットシステム | |
US9233469B2 (en) | Robotic system with 3D box location functionality | |
JP6879238B2 (ja) | ワークピッキング装置及びワークピッキング方法 | |
JP5582126B2 (ja) | ワーク取出システム、ロボット装置および被加工物の製造方法 | |
JP6529302B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
US9764475B2 (en) | Workpiece taking out robot system having conversion-calculation function of position and orientation, and workpiece taking out method | |
JP6348097B2 (ja) | ワーク位置姿勢算出装置およびハンドリングシステム | |
JP2018144144A (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
CN110587592B (zh) | 机器人控制装置、机器人控制方法及计算机可读记录介质 | |
CN113386122B (zh) | 测量参数的优化方法和装置以及计算机可读存储介质 | |
JP2017124450A (ja) | ピックアップ装置 | |
US11126844B2 (en) | Control apparatus, robot system, and method of detecting object | |
CN113284178B (zh) | 物体码垛方法、装置、计算设备及计算机存储介质 | |
JP7454132B2 (ja) | ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム | |
JP2010210511A (ja) | 対象物の3次元位置・姿勢認識装置及びその方法 | |
CN116419829A (zh) | 测量系统、测量装置、测量方法以及测量程序 | |
JP2017182113A (ja) | ワーク判定装置及び方法 | |
JP7233508B2 (ja) | 形状測定装置及び形状測定方法 | |
EP4094904B1 (en) | Robot system control device, robot system control method, computer control program, and robot system | |
JP2020091126A (ja) | 計測装置、システム、表示方法及びプログラム | |
JP6512852B2 (ja) | 情報処理装置、情報処理方法 | |
JP2010146357A (ja) | 3次元画像処理方法および3次元画像処理装置 | |
JP7481867B2 (ja) | 制御装置及びプログラム | |
JP7261597B2 (ja) | 移載対象ワーク記憶システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190820 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6576050 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |