JP2012192490A - Packing recognition device - Google Patents

Packing recognition device Download PDF

Info

Publication number
JP2012192490A
JP2012192490A JP2011058173A JP2011058173A JP2012192490A JP 2012192490 A JP2012192490 A JP 2012192490A JP 2011058173 A JP2011058173 A JP 2011058173A JP 2011058173 A JP2011058173 A JP 2011058173A JP 2012192490 A JP2012192490 A JP 2012192490A
Authority
JP
Japan
Prior art keywords
box
pallet
dimensional code
information
loaded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011058173A
Other languages
Japanese (ja)
Inventor
Shuichi Sunahara
秀一 砂原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2011058173A priority Critical patent/JP2012192490A/en
Publication of JP2012192490A publication Critical patent/JP2012192490A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G61/00Use of pick-up or transfer devices or of manipulators for stacking or de-stacking articles not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0208Control or detection relating to the transported articles
    • B65G2203/0233Position of the article
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40006Placing, palletize, un palletize, paper roll placing, box stacking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40538Barcode reader to detect position

Abstract

PROBLEM TO BE SOLVED: To provide a packing recognition device that automatically recognizes packing information such as a type, shape, size and position of a box loaded on a pallet, in a distribution process of vehicle assembly parts.SOLUTION: The device scans first to fourth surfaces W1, W2, L1, L2 of the box 3 loaded on the pallet 2 by a movable line camera 8 and fixed line camera 10 of a scanner 7. The device includes: extracting two-dimensional codes of a form 4 attached on the box 3 from scan data; generating coordinate data representing two-dimensional code positions; acquiring box information including the shape, size and display position of two-dimensional codes of the box 3 from a database based on the extracted two-dimensional codes; and generating the coordinate data of each section of the box 3, as the packing information of the box 3 loaded on the pallet 2, based on the coordinate data representing the two-dimensional code positions and the box information.

Description

本発明は、自動車の組立部品の納入等の物流工程において、パレット上に積載された箱体を順次、移送、分別するために、箱体の種類、形状、寸法及び位置等の荷姿情報を自動的に認識するための荷姿認識装置に関するものである。   The present invention provides package information such as the type, shape, dimensions, and position of a box in order to sequentially transport and sort boxes loaded on a pallet in a distribution process such as delivery of automobile assembly parts. The present invention relates to a packing form recognition apparatus for automatically recognizing.

従来から、物流工程において、商品、部品等を梱包した段ボール箱等の箱体をパレット上に積載(パレタイズ)したり、積載された箱体を順次、移送、分別(デパレタイズ)する工程を産業用ロボットを用いて自動化することが行われている。この場合、パレット上に積載された多種類の箱体の形状、寸法及び位置等の荷姿情報を正確に認識する必要がある。   Conventionally, in the logistics process, the process of stacking (palletizing) boxes such as cardboard boxes packed with products, parts, etc. on a pallet, and sequentially transferring and sorting (depalletizing) the loaded boxes Automation is performed using a robot. In this case, it is necessary to accurately recognize packing state information such as shapes, dimensions and positions of various types of boxes loaded on the pallet.

そこで、例えば特許文献1には、ステレオテレビカメラ装置及び角度調整可能な照明装置を用いて、パレット上に積載された箱体を撮像し、撮像された画像の陰影に基づき、荷姿情報として簡易かつ迅速に最上部の箱体を特定する技術が記載されている。   Thus, for example, in Patent Document 1, a box mounted on a pallet is imaged using a stereo television camera device and an angle-adjustable lighting device, and simple packaging information is obtained based on the shadow of the captured image. A technique for quickly specifying the uppermost box is described.

特開7−299782号公報Japanese Patent Laid-Open No. 7-299782

例えば自動車の組立工程においては、様々な部品等を梱包した多種多様の箱体がパレット上に積載されており、これを産業用ロボットを用いて円滑に移送、分別するためには、箱体の種類、形状、寸法及び位置等の荷姿情報を正確に認識し、その荷姿データに基づき産業用ロボットを作動させる必要がある。このため、このような物流工程においては、より正確で信頼性の高い荷姿データを生成することが望まれている。   For example, in an automobile assembly process, a wide variety of boxes packed with various parts are loaded on a pallet, and in order to transport and sort them smoothly using an industrial robot, It is necessary to accurately recognize package information such as type, shape, size, and position, and to operate an industrial robot based on the package data. For this reason, in such a physical distribution process, it is desired to generate more accurate and reliable package data.

本発明は、上記の点に鑑みてなされたものであり、パレット上に積載された箱体に対して、正確で信頼性の高い荷姿データを生成するようにした荷姿認識装置を提供することを目的とする。   The present invention has been made in view of the above points, and provides a package form recognition apparatus that generates accurate and reliable package form data for a box loaded on a pallet. For the purpose.

上記の課題を解決するために、本発明は、パレット上に積載された箱体の荷姿を認識するための荷姿認識装置であって、
各箱体の側面部には、該箱体を識別するための2次元コードが表示され、
前記パレット上に積載された前記箱体を側面から走査する走査装置と、
前記箱体の形状、寸法及び前記2次元コードの表示位置を含む箱体情報を記憶したデータベースとを備え、
前記走査装置による前記箱体の走査データから前記2次元コードを抽出し、該2次元コードの位置を表す座標データを生成し、抽出した前記2次元コードに基づき前記データベースから前記箱体情報を取得し、前記2次元コードの位置を表す座標データ及び前記箱体情報に基づき、前記パレット上に積載された前記箱体の荷姿情報として該箱体の座標データを生成することを特徴とする。
In order to solve the above-mentioned problem, the present invention is a packing form recognition device for recognizing a packing form of a box loaded on a pallet,
A two-dimensional code for identifying the box is displayed on the side of each box,
A scanning device for scanning the box loaded on the pallet from a side surface;
A database storing box information including the shape and dimensions of the box and the display position of the two-dimensional code;
The two-dimensional code is extracted from the scanning data of the box by the scanning device, coordinate data representing the position of the two-dimensional code is generated, and the box information is acquired from the database based on the extracted two-dimensional code. Then, based on the coordinate data representing the position of the two-dimensional code and the box information, the coordinate data of the box is generated as the packing form information of the box loaded on the pallet.

本発明に係る荷姿認識装置によれば、パレット上に積載された箱体に対して、正確で信頼性の高い荷姿データを生成することができる。   According to the package form recognition apparatus according to the present invention, accurate and highly reliable package form data can be generated for a box loaded on a pallet.

本発明の一実施形態に係る荷姿認識装置の概略構成を示す斜視図である。It is a perspective view which shows schematic structure of the package appearance recognition apparatus which concerns on one Embodiment of this invention. パレット上に積載される箱体の一例を示す斜視図である。It is a perspective view which shows an example of the box loaded on a pallet. 図1に示す荷姿認識装置の荷姿データを生成する処理装置を示すブロック図である。It is a block diagram which shows the processing apparatus which produces | generates the package data of the package form recognition apparatus shown in FIG. パレット上に積載された箱体の正面図である。It is a front view of the box loaded on the pallet. 2次元コードの配置を示す箱体の正面図である。It is a front view of the box which shows arrangement of a two-dimensional code. パレット上に積載された箱体の配置の一例を示す正面図である。It is a front view which shows an example of arrangement | positioning of the box loaded on the pallet. 図5に示す箱体の配置の一例の側面図である。It is a side view of an example of arrangement | positioning of the box shown in FIG. 図3の処理装置のデータベースの内容の一例を示す図表である。4 is a chart showing an example of contents of a database of the processing apparatus of FIG. 3. 図7に示すデータベースの内容に箱体の座標データを付加した図表である。It is the chart which added the coordinate data of the box to the contents of the database shown in FIG. 図1に示す荷姿認識装置の荷姿データを生成するための処理フローを示すフローチャートである。It is a flowchart which shows the processing flow for producing | generating the package form data of the package form recognition apparatus shown in FIG. 図1に示す荷姿認識装置の2次元コード情報を取得するための処理フローを示すフローチャートである。It is a flowchart which shows the processing flow for acquiring the two-dimensional code information of the package appearance recognition apparatus shown in FIG. 図1に示す荷姿認識装置の荷姿情報を生成するための処理フローを示すフローチャートである。It is a flowchart which shows the processing flow for producing | generating the package form information of the package form recognition apparatus shown in FIG. 図1に示す荷姿認識装置の下流に配置されたデパレットステーション及び自動倉庫の一例の概略構成を示す斜視図である。It is a perspective view which shows schematic structure of an example of the depallet station arrange | positioned downstream of the package appearance recognition apparatus shown in FIG. 1, and an automatic warehouse.

以下、本発明の一実施形態を図面に基づいて詳細に説明する。
図1に示すように、本実施形態に係る荷姿認識装置1は、自動車の組立部品の納入等の物流工程において、パレット2上に積載された箱体3の種類、形状、寸法及び位置等の荷姿情報を認識して座標データとして生成するものである。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
As shown in FIG. 1, the package shape recognition apparatus 1 according to the present embodiment includes a type, shape, size, position, and the like of a box 3 loaded on a pallet 2 in a distribution process such as delivery of automobile assembly parts. Is recognized and generated as coordinate data.

箱体3は、図2に示すように、段ボール等からなり直方体に形成されて自動車の組立部品等を梱包したものである。箱体3は、梱包する部品に応じて様々な形状及び寸法のものがあり、水平方向に面した少なくとも1面に長方形の帳票4が貼り付けられている。帳票4は、その箱体3に梱包された部品についての物流管理情報、その箱体3の識別情報を表し、例えば「かんばん」といわれるものであり、これらの情報を表示する光学的に読取り可能な矩形の2次元コード5が印刷されている。帳票4は、これに印刷された2次元コード5の箱体3に対する位置が一定になるように貼り付けられている。2次元コード5としては、例えば公知のQRコード(登録標標)を使用することができる。   As shown in FIG. 2, the box 3 is formed of cardboard or the like and is formed into a rectangular parallelepiped and is packed with automobile assembly parts and the like. The box 3 has various shapes and sizes depending on the parts to be packed, and a rectangular form 4 is pasted on at least one surface facing in the horizontal direction. The form 4 represents the distribution management information about the parts packed in the box 3, and the identification information of the box 3. For example, the form 4 is called “Kanban” and is optically readable to display such information. A rectangular two-dimensional code 5 is printed. The form 4 is pasted so that the position of the two-dimensional code 5 printed on the form 4 with respect to the box 3 is constant. As the two-dimensional code 5, for example, a known QR code (registered mark) can be used.

荷姿認識装置1は、コンベア6上のパレット2に積載された箱体3の水平方向に面した第1面W1、第2面W2、第3面L1、第4面L2の4つの面について走査を行なって2次元画像データを生成する走査装置7が設けられている。走査装置7は、矢印Aで示すコンベア6の搬送方向に直交する第1面W1及び第2面W2に対向して配置された一対の可動ラインカメラ8及び距離センサ9と、搬送方向に平行な第3面L1及び第4面L2に対向して配置された一対の固定ラインカメラ10及び距離センサ11とを備えている。   The package shape recognition apparatus 1 has four surfaces, a first surface W1, a second surface W2, a third surface L1, and a fourth surface L2, which face the horizontal direction of the box 3 loaded on the pallet 2 on the conveyor 6. A scanning device 7 that performs scanning to generate two-dimensional image data is provided. The scanning device 7 includes a pair of a movable line camera 8 and a distance sensor 9 that are arranged to face the first surface W1 and the second surface W2 orthogonal to the conveyance direction of the conveyor 6 indicated by an arrow A, and are parallel to the conveyance direction. A pair of fixed line cameras 10 and a distance sensor 11 disposed to face the third surface L1 and the fourth surface L2 are provided.

可動ラインカメラ8は、コンベア6を停止してパレット2上に積載された箱体3を固定した状態で、搬送方向に対して直交する方向に移動させることにより、パレット2上に積載された箱体3の第1面W1及び第2面W2について、それぞれ走査を行なって2次元画像データを生成する。このとき、距離センサ9によって箱体3との距離を検出し、ラインカメラ8に取付けられたパルスエンコーダ12によってラインカメラ8及び距離センサ8の移動量を検出する。   The movable line camera 8 stops the conveyer 6 and moves the box 3 loaded on the pallet 2 in a direction orthogonal to the transport direction while fixing the box 3 loaded on the pallet 2 to thereby move the boxes loaded on the pallet 2. The first surface W1 and the second surface W2 of the body 3 are each scanned to generate two-dimensional image data. At this time, the distance from the box 3 is detected by the distance sensor 9, and the movement amounts of the line camera 8 and the distance sensor 8 are detected by the pulse encoder 12 attached to the line camera 8.

固定ラインカメラ10は、コンベア6を作動させて、パレット2上に積載された箱体3を一定速度で搬送方向に移動させることにより、パレット2上の箱体3の第3面L1及び第4面L2について、それぞれ走査を行なって2次元画像データを生成する。このとき、距離センサ11によって箱体3との距離を検出し、コンベア6に取付けられたパルスエンコーダ(図示せず)によってパレット2上の箱体3の移動量を検出する。   The fixed line camera 10 operates the conveyor 6 to move the boxes 3 loaded on the pallet 2 at a constant speed in the transport direction, whereby the third surface L1 and the fourth surface L1 of the box 3 on the pallet 2 are moved. The surface L2 is scanned to generate two-dimensional image data. At this time, the distance from the box 3 is detected by the distance sensor 11, and the amount of movement of the box 3 on the pallet 2 is detected by a pulse encoder (not shown) attached to the conveyor 6.

図3に示すように、荷姿認識装置1は、コンベア6及び走査装置7の作動を制御し、パレット2上の箱体3の第1、第2面W1、W2及び第3、4面L1、L2の2次元画像データを生成し、これらの2次元画像データを処理することにより、パレット2上に積載された箱体3の種類、形状、寸法及び位置等の荷姿データを生成する処理装置13を備えている。   As shown in FIG. 3, the package recognition device 1 controls the operation of the conveyor 6 and the scanning device 7, and the first and second surfaces W <b> 1 and W <b> 2 and the third and fourth surfaces L <b> 1 of the box 3 on the pallet 2. , L2 two-dimensional image data is generated, and these two-dimensional image data are processed to generate package data such as the type, shape, size and position of the box 3 loaded on the pallet 2 A device 13 is provided.

処理装置13は、マイクロプロセッサベースの情報処理ユニットを含み、次のようにコンベア6及び走査装置7を制御する。
処理装置13は、パレット2に積載される箱体3のデータベースDBを備えている。このデータベースDBは、例えば図8に示すように(一例としてNo.1〜13の13種を図示する)、梱包された部品の部品番号、箱体3の種類、形状、縦(L)、横(W)、高さ(H)の各寸法、帳票4の貼付位置すなわち2次元コード5の表示位置を含む箱体情報を記憶している。図8に示す例では、帳票4の貼付位置は、「0」又は「1」で示されている。ここで、「0」は、2次元コード5の図形の重心が箱体3の短辺側の中央下部にあり、図5において、箱体3の帳票4の貼付面に対して、2次元コード5の図形の重心がC=67(mm)、D=L/2の位置にあることを表している。また、「1」は、2次元コード5の図形の重心が箱体3の短辺側の中央下部にあり、図5において、箱体3の帳票4の貼付面に対して、2次元コード5の図形の重心がC=67(mm)、D=W/2の位置にあることを表している。
The processing device 13 includes a microprocessor-based information processing unit and controls the conveyor 6 and the scanning device 7 as follows.
The processing device 13 includes a database DB for the boxes 3 loaded on the pallet 2. For example, as shown in FIG. 8 (13 types No. 1 to 13 are shown as an example), this database DB is the part number of the packaged part, the type, shape, vertical (L), horizontal of the box 3 Box information including each dimension of (W) and height (H), a pasting position of the form 4, that is, a display position of the two-dimensional code 5, is stored. In the example shown in FIG. 8, the pasting position of the form 4 is indicated by “0” or “1”. Here, “0” means that the center of gravity of the figure of the two-dimensional code 5 is at the lower center of the short side of the box 3, and in FIG. This indicates that the center of gravity of the figure 5 is at the position of C = 67 (mm) and D = L / 2. “1” has the center of gravity of the figure of the two-dimensional code 5 at the lower center of the short side of the box 3, and in FIG. This indicates that the center of gravity of the figure is located at C = 67 (mm) and D = W / 2.

そして、処置装置13は、コンベア6及び走査装置7の作動を制御して、パレット2上に積載された箱体3の第1、第2面W1、W2及び第3及び第4面L1、L2について走査を行って各面について2次元画像データを生成し、これらの2次元画像データから各箱体3の2次元コード5を抽出し、それぞれの図形の重心位置を演算する。このとき、図4に示すように、第1〜4面W1、W2、L1、L2について、パレット2に対して座標を設定し、各箱体3の位置情報を座標データとして生成する。   Then, the treatment device 13 controls the operations of the conveyor 6 and the scanning device 7, and the first and second surfaces W1 and W2 and the third and fourth surfaces L1 and L2 of the box 3 loaded on the pallet 2. Is scanned to generate two-dimensional image data for each surface, the two-dimensional code 5 of each box 3 is extracted from these two-dimensional image data, and the barycentric position of each figure is calculated. At this time, as shown in FIG. 4, with respect to the first to fourth surfaces W1, W2, L1, and L2, coordinates are set with respect to the pallet 2, and position information of each box 3 is generated as coordinate data.

また、抽出した2次元コード5の箱体3の識別情報をデータベースDBと照合することにより、各箱体3の箱体情報を得る。そして、2次元コード5の図形の重心位置の座標データから(データベースDBの内容に座標データを付加したものを図9に示す)、図6及び図7に示すように、各部の位置を表す座標データを生成する。このようにして、第1面W1について、No.1〜13の箱体について、各部の位置を表す座標データを生成する。そして、同様に、第2面W2、第3年L1、第4面L2について、各箱体3の各部の位置を表す座標データを生成する。これにより、パレット2上に積載された箱体3の形状、寸法及び位置含む荷姿情報を座標データとして生成することができる。   Moreover, the box information of each box 3 is obtained by collating the identification information of the box 3 of the extracted two-dimensional code 5 with the database DB. From the coordinate data of the barycentric position of the figure of the two-dimensional code 5 (shown in FIG. 9 with the coordinate data added to the contents of the database DB), as shown in FIG. 6 and FIG. Generate data. In this way, for the first surface W1, no. For the boxes 1 to 13, coordinate data representing the position of each part is generated. Similarly, coordinate data representing the position of each part of each box 3 is generated for the second surface W2, the third year L1, and the fourth surface L2. Thereby, the package information including the shape, size, and position of the box 3 loaded on the pallet 2 can be generated as coordinate data.

一例として、図6及び図7に示すパレット2上に積載された箱体3について、(4)の箱体3の荷姿情報として、対角上にある頂点E、Fの座標データを生成する場合について説明する。
抽出した2次元コード5に基づき、図8に示す箱体データベースから、(4)の箱体の寸法として縦(L)=670(mm)、横(W)=335(mm)、高さ(H)=241(mm)、2次元コード5の位置情報「1」、すなわち、「長辺中央下部」、したがって、C=67(mm)、D=L/2=335(mm)を得る。また、走査装置7によって得た2次元画像データから(4)の箱体3の2次元コード5の図形の重心のX座標=Xq及びZ座標=Zqを演算し、この2次元コード5の図形の重心の座標に基づき、頂点EのX座標Xeは、
Xe=Xq−L/2=Xq−335
となり、Z座標Zeは、
Ze=Zq+(H−C)=Zq+(241−67)=Zq+174
となる。
As an example, for the box 3 loaded on the pallet 2 shown in FIGS. 6 and 7, the coordinate data of the vertices E and F on the diagonal is generated as the packing form information of the box 3 in (4). The case will be described.
Based on the extracted two-dimensional code 5, from the box database shown in FIG. 8, the dimensions of the box of (4) are vertical (L) = 670 (mm), horizontal (W) = 335 (mm), height ( H) = 241 (mm) Position information “1” of the two-dimensional code 5, that is, “longer middle lower part”, and therefore C = 67 (mm) and D = L / 2 = 335 (mm) are obtained. Further, the X coordinate = Xq and the Z coordinate = Zq of the center of gravity of the figure of the two-dimensional code 5 of the box 3 in (4) are calculated from the two-dimensional image data obtained by the scanning device 7, and the figure of the two-dimensional code 5 is calculated. Based on the coordinates of the center of gravity, the X coordinate Xe of the vertex E is
Xe = Xq-L / 2 = Xq-335
And the Z coordinate Ze is
Ze = Zq + (HC) = Zq + (241-67) = Zq + 174
It becomes.

また、頂点FのX座標Xfは、
Xf=Xq+L/2=Xq+335
となり、Z座標Zfは、
Zf=Zq−C=Zq−67
となる。
The X coordinate Xf of the vertex F is
Xf = Xq + L / 2 = Xq + 335
And the Z coordinate Zf is
Zf = Zq-C = Zq-67
It becomes.

さらに、頂点E及びFのY座標Ye、Yfは、パレット2の前端の位置を原点とし、距離センサ11によって検出したパレット2の前端位置までの距離Yo及び距離センサ11によって検出した(4)の箱体3の2次元コード5までの距離Yqに基づき、
Ye=Yf=Yq−Yo
として求めることができる。
同様に、(2)〜(13)の箱体3の荷姿情報となる頂点の座標データについて、それぞれの箱体3の2次元コード5の図形の重心位置及び識別情報に基づいて求めることができる。
Further, the Y coordinates Ye and Yf of the vertices E and F are detected by the distance sensor 11 with the distance Yo to the front end position of the pallet 2 detected by the distance sensor 11 using the position of the front end of the pallet 2 as the origin. Based on the distance Yq to the two-dimensional code 5 of the box 3,
Ye = Yf = Yq-Yo
Can be obtained as
Similarly, the coordinate data of the vertices as the package information of the box 3 of (2) to (13) can be obtained based on the position of the center of gravity of the figure of the two-dimensional code 5 of each box 3 and the identification information. it can.

次に、処理装置13により、荷姿データを生成するための処理フローの一例について図10乃至図12を参照して説明する。図10を参照して、ステップS0で、荷姿情報の座標データの生成を開始し、ステップS1で、走査装置7によってパレット2上の箱体3の走査を行い、各箱体3の2次元コード5を読取ってステップS2に進む。ステップ2で、2次元コード5の位置を標定してステップS3に進む。ステップS3で、2次元コード5からその箱体3に梱包された部品の品番等の識別情報及び2次元コード5の図形の重心位置の座標データを生成してステップS4に進む。ステップS4で、品番等の識別情報からデータベースDBの検索を実行し、箱体3を特定してステップS5に進む。ステップS5で、データベースDBから箱体の種類、形状、寸法及び帳票の貼付位置(2次元コードの位置)等の箱体情報を照合してステップS6に進む。ステップS6で、箱体情報から、各箱体3の各部の位置の座標データを演算してステップS7に進む。ステップS7で、パレット2上の箱体3の第1面から第4面について、座標データの生成が完了したか否か判定し、完了していない場合には、ステップS1に戻り、第1面から第4面の各面について順次、座標データを生成する。第1面から第4面について、座標データの生成が完了した場合には、ステップS8に進み、パレット2上の箱体2の座標データを荷姿情報として出力して処理を終了する。   Next, an example of a processing flow for generating the package appearance data by the processing device 13 will be described with reference to FIGS. 10 to 12. Referring to FIG. 10, in step S0, generation of coordinate data of the packing form information is started, and in step S1, the box 3 on the pallet 2 is scanned by the scanning device 7, and the two-dimensional of each box 3 is scanned. The code 5 is read and the process proceeds to step S2. In step 2, the position of the two-dimensional code 5 is determined, and the process proceeds to step S3. In step S3, identification information such as the part number of the part packed in the box 3 from the two-dimensional code 5 and coordinate data of the center of gravity position of the figure of the two-dimensional code 5 are generated, and the process proceeds to step S4. In step S4, the database DB is searched from the identification information such as the product number, the box 3 is specified, and the process proceeds to step S5. In step S5, box information such as the box type, shape, dimensions, and form pasting position (two-dimensional code position) is collated from the database DB, and the process proceeds to step S6. In step S6, the coordinate data of the position of each part of each box 3 is calculated from the box information, and the process proceeds to step S7. In step S7, it is determined whether or not the generation of coordinate data has been completed for the first to fourth surfaces of the box 3 on the pallet 2. If not, the process returns to step S1 to return to the first surface. Coordinate data is sequentially generated for each of the fourth to fourth surfaces. When the generation of coordinate data is completed for the first surface to the fourth surface, the process proceeds to step S8, where the coordinate data of the box 2 on the pallet 2 is output as packing information, and the process is terminated.

図10に示す処理フローのステップS1における2次元コード5の読み取りの処理フローについて、図11を参照して更に詳細に説明する。図11を参照して、ステップS10で走査装置7の作動を開始し、ステップS11で距離センサ9、11によってラインカメラ8、10と箱体3に貼り付けられた帳票4(2次元コード5)との距離を検出してステップS12に進む。ステップS12で、距離センサ9、11の検出に基づきラインカメラ8、10の焦点を調整してステップS13に進む。ステップS13で、ラインカメラ8、11による走査を開始し、ステップS14で走査データを取得し、ステップS15で走査を終了してステップS16に進む。ステップS16で、走査データに基づき、2次元画像を生成してステップS17に進む。ステップS17で、2次元画像から2次元コード5を抽出してステップS18に進む。ステップS18で2次元コード5の基準位置となる図形の重心位置を演算してステップS19に進む。ステップS19で、座標データの生成処理を実行する。   The processing flow for reading the two-dimensional code 5 in step S1 of the processing flow shown in FIG. 10 will be described in more detail with reference to FIG. Referring to FIG. 11, operation of scanning device 7 is started in step S10, and form 4 (two-dimensional code 5) attached to line cameras 8 and 10 and box 3 by distance sensors 9 and 11 in step S11. And the process proceeds to step S12. In step S12, the focus of the line cameras 8 and 10 is adjusted based on the detection of the distance sensors 9 and 11, and the process proceeds to step S13. In step S13, scanning by the line cameras 8 and 11 is started, scanning data is acquired in step S14, scanning is terminated in step S15, and the process proceeds to step S16. In step S16, a two-dimensional image is generated based on the scan data, and the process proceeds to step S17. In step S17, the two-dimensional code 5 is extracted from the two-dimensional image, and the process proceeds to step S18. In step S18, the position of the center of gravity of the figure serving as the reference position of the two-dimensional code 5 is calculated, and the process proceeds to step S19. In step S19, a process for generating coordinate data is executed.

次に、二次元コード5から荷姿データを生成する処理の一例について図12を参照して説明する。図12を参照して、ステップS21で、走査装置7によって読込んだ2次元コード5から部品番号等の識別情報を抽出してステップS22に進む。ステップS22で、部品番号に基づき、データベースDBから、その箱体情報を検索してステップS23に進む。ステップS23で、検索した箱体情報から箱体3の種類、形状、寸法及び帳票4の貼付位置(2次元コード5の位置)を抽出してステップS24に進む。ステップS24で、これらの情報に基づき、2次元コード5の図形の重心の座標データを生成してステップS25に進む。ステップS25で、箱体情報及び2次元コード5の図形の重心の座標データからパレット2上に積載された各箱体3の座標データを生成する。   Next, an example of a process for generating package data from the two-dimensional code 5 will be described with reference to FIG. Referring to FIG. 12, in step S21, identification information such as a part number is extracted from two-dimensional code 5 read by scanning device 7, and the process proceeds to step S22. In step S22, the box information is searched from the database DB based on the part number, and the process proceeds to step S23. In step S23, the type, shape, and size of the box 3 and the pasting position of the form 4 (position of the two-dimensional code 5) are extracted from the retrieved box information, and the process proceeds to step S24. In step S24, based on these pieces of information, coordinate data of the center of gravity of the figure of the two-dimensional code 5 is generated, and the process proceeds to step S25. In step S25, coordinate data of each box 3 loaded on the pallet 2 is generated from the box information and the coordinate data of the center of gravity of the figure of the two-dimensional code 5.

このようにして、パレット2上に積載された各箱体3の種類、形状、寸法及び位置を含む荷姿情報を座標データとして生成することができる。そして、例えば図12に示すように、次工程のデパレタイズステーション14において、産業用ロボット15を利用して、各箱体3を自動倉庫16の所定の保管場所に分別、移送する場合、荷姿情報の座標データに基づき、産業用ロボット15の作動を制御することにより、各箱体3を順次、確実に把持することができ、円滑なハンドリングが可能になる。このとき、ステレオカメラ等の3次元カメラ、3次元センサ等を用いて、ロボットアーム15Aの座標と、パレット2上の箱体3の座標とのズレを補正し、また、荷崩れ等を検知することができる。この際、3次元処理としては、ステレオビジョン、光切断法、タイムフライト法等の公知の処理技術を利用することができる。   In this manner, the package form information including the type, shape, size, and position of each box 3 loaded on the pallet 2 can be generated as coordinate data. Then, for example, as shown in FIG. 12, in the depalletizing station 14 of the next process, when the box 3 is separated and transferred to a predetermined storage location of the automatic warehouse 16 using the industrial robot 15, By controlling the operation of the industrial robot 15 based on the coordinate data of the information, each box 3 can be securely and sequentially held, and smooth handling becomes possible. At this time, a deviation between the coordinates of the robot arm 15A and the coordinates of the box 3 on the pallet 2 is corrected using a three-dimensional camera such as a stereo camera, a three-dimensional sensor, etc., and collapse of the load is detected. be able to. At this time, as the three-dimensional processing, a known processing technique such as stereo vision, a light cutting method, a time flight method, or the like can be used.

1…荷姿認識装置、2…パレット、3…箱体、5…2次元コード、7…走査装置、DB…データベース   DESCRIPTION OF SYMBOLS 1 ... Packing shape recognition apparatus, 2 ... Pallet, 3 ... Box, 5 ... Two-dimensional code, 7 ... Scanning device, DB ... Database

Claims (1)

パレット上に積載された箱体の荷姿を認識するための荷姿認識装置であって、
各箱体の側面部には、該箱体を識別するための2次元コードが表示され、
前記パレット上に積載された前記箱体を側面から走査する走査装置と、
前記箱体の形状、寸法及び前記2次元コードの表示位置を含む箱体情報を記憶したデータベースとを備え、
前記走査装置による前記箱体の走査データから前記2次元コードを抽出し、該2次元コードの位置を表す座標データを生成し、抽出した前記2次元コードに基づき前記データベースから前記箱体情報を取得し、前記2次元コードの位置を表す座標データ及び前記箱体情報に基づき、前記パレット上に積載された前記箱体の荷姿情報として該箱体の座標データを生成することを特徴とする荷姿認識装置。
A packaging form recognition device for recognizing the packaging form of a box loaded on a pallet,
A two-dimensional code for identifying the box is displayed on the side of each box,
A scanning device for scanning the box loaded on the pallet from a side surface;
A database storing box information including the shape and dimensions of the box and the display position of the two-dimensional code;
The two-dimensional code is extracted from the scanning data of the box by the scanning device, coordinate data representing the position of the two-dimensional code is generated, and the box information is acquired from the database based on the extracted two-dimensional code. Then, based on the coordinate data representing the position of the two-dimensional code and the box information, the coordinate data of the box is generated as the packing form information of the box loaded on the pallet. Figure recognition device.
JP2011058173A 2011-03-16 2011-03-16 Packing recognition device Withdrawn JP2012192490A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011058173A JP2012192490A (en) 2011-03-16 2011-03-16 Packing recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011058173A JP2012192490A (en) 2011-03-16 2011-03-16 Packing recognition device

Publications (1)

Publication Number Publication Date
JP2012192490A true JP2012192490A (en) 2012-10-11

Family

ID=47084900

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011058173A Withdrawn JP2012192490A (en) 2011-03-16 2011-03-16 Packing recognition device

Country Status (1)

Country Link
JP (1) JP2012192490A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016000995A1 (en) 2015-02-06 2016-08-11 Fanuc Corporation Conveyor robot system with three-dimensional sensor
WO2017122482A1 (en) * 2016-01-12 2017-07-20 株式会社ダイフク Abnormality detection device for container stack
JP2018043815A (en) * 2016-09-12 2018-03-22 ユーピーアール株式会社 Load monitoring system in warehouse using drone
JP6452891B1 (en) * 2017-10-20 2019-01-16 スターテクノ株式会社 Pallet gripping device and pallet gripping system
JP6452893B1 (en) * 2017-10-20 2019-01-16 スターテクノ株式会社 Pallet transfer device
WO2019098119A1 (en) * 2017-11-15 2019-05-23 村田機械株式会社 Management server, management system, management method, and program
CN110328666A (en) * 2019-07-16 2019-10-15 汕头大学 Identifying system and material mechanism for picking
WO2023081945A1 (en) * 2021-11-09 2023-05-19 Tgw Logistics Group Gmbh Method and device for removing a product from a stack

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9844882B2 (en) 2015-02-06 2017-12-19 Fanuc Corporation Conveyor robot system provided with three-dimensional sensor
DE102016000995A1 (en) 2015-02-06 2016-08-11 Fanuc Corporation Conveyor robot system with three-dimensional sensor
DE102016000995B4 (en) 2015-02-06 2019-01-31 Fanuc Corporation Conveyor robot system with three-dimensional sensor
US10562714B2 (en) 2016-01-12 2020-02-18 Daifuku Co., Ltd. Abnormality detection device for container stack
WO2017122482A1 (en) * 2016-01-12 2017-07-20 株式会社ダイフク Abnormality detection device for container stack
JP2017124877A (en) * 2016-01-12 2017-07-20 株式会社ダイフク Abnormality detection device for stacked-up containers
KR20180101386A (en) * 2016-01-12 2018-09-12 가부시키가이샤 다이후쿠 An abnormality detecting device for a stacking container
KR102636433B1 (en) * 2016-01-12 2024-02-15 가부시키가이샤 다이후쿠 Anomaly detection device for stacked containers
RU2729758C2 (en) * 2016-01-12 2020-08-11 Дайфуку Ко., Лтд. Device for detecting abnormalities for stack of containers
TWI690477B (en) * 2016-01-12 2020-04-11 日商大福股份有限公司 Anomaly detection device for stacked containers
JP2018043815A (en) * 2016-09-12 2018-03-22 ユーピーアール株式会社 Load monitoring system in warehouse using drone
WO2019077729A1 (en) * 2017-10-20 2019-04-25 スターテクノ株式会社 Pallet transfer device
WO2019077728A1 (en) * 2017-10-20 2019-04-25 スターテクノ株式会社 Pallet holding device and pallet holding system
JP6452893B1 (en) * 2017-10-20 2019-01-16 スターテクノ株式会社 Pallet transfer device
JP6452891B1 (en) * 2017-10-20 2019-01-16 スターテクノ株式会社 Pallet gripping device and pallet gripping system
WO2019098119A1 (en) * 2017-11-15 2019-05-23 村田機械株式会社 Management server, management system, management method, and program
JPWO2019098119A1 (en) * 2017-11-15 2020-12-17 村田機械株式会社 Management server, management system, management method, and program
CN110328666A (en) * 2019-07-16 2019-10-15 汕头大学 Identifying system and material mechanism for picking
WO2023081945A1 (en) * 2021-11-09 2023-05-19 Tgw Logistics Group Gmbh Method and device for removing a product from a stack

Similar Documents

Publication Publication Date Title
JP2012192490A (en) Packing recognition device
CN111776762B (en) Robotic system with automated package scanning and registration mechanism and method of operation thereof
JP6738112B2 (en) Robot system control device and control method
US9707682B1 (en) Methods and systems for recognizing machine-readable information on three-dimensional objects
US10227176B2 (en) Picking apparatus
JP6140204B2 (en) Transport robot system with 3D sensor
WO2015145982A1 (en) Information processing device, information processing system, distribution system, information processing method, and program storage medium
JP7065632B2 (en) Box-shaped object picking device and its method
CN107597600A (en) Sorting system and method for sorting
JP2019509559A (en) Box location, separation, and picking using a sensor-guided robot
JP6011490B2 (en) Goods storage facility
TWI690477B (en) Anomaly detection device for stacked containers
CN111906773A (en) Robot system with coordinated transfer mechanism
JP2006300929A (en) Device for recognizing three-dimensional position of object, and depalettizing system
JP5544464B2 (en) 3D position / posture recognition apparatus and method for an object
CN115703232A (en) Robot system with image-based sizing mechanism and method of operating the same
CN113632116A (en) System and method for mapping carton position in pallet and container
CN114291482A (en) LiDAR-based monitoring in a materials handling environment
KR102595542B1 (en) Tracking device, tracking method, data structure and program of tracking data
JP2024002525A (en) Bar code detection system, method for detecting bar code, and bar code detection program
JP6523820B2 (en) Material processing device
CN111618852A (en) Robot system with coordinated transfer mechanism
US20240132304A1 (en) Vision-assisted robotized depalletizer
JP2020125916A (en) Transfer target workpiece storage system
CN116486346B (en) Carton conveying method and device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603