JP2017054199A - Estimation apparatus, object position recognition apparatus, and estimation program - Google Patents

Estimation apparatus, object position recognition apparatus, and estimation program Download PDF

Info

Publication number
JP2017054199A
JP2017054199A JP2015176016A JP2015176016A JP2017054199A JP 2017054199 A JP2017054199 A JP 2017054199A JP 2015176016 A JP2015176016 A JP 2015176016A JP 2015176016 A JP2015176016 A JP 2015176016A JP 2017054199 A JP2017054199 A JP 2017054199A
Authority
JP
Japan
Prior art keywords
unit
image data
objects
hole
recess
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015176016A
Other languages
Japanese (ja)
Other versions
JP6523883B2 (en
Inventor
隆也 角森
Takaya Tsunomori
隆也 角森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Advanced Engineering Ltd
Original Assignee
Fujitsu Advanced Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Advanced Engineering Ltd filed Critical Fujitsu Advanced Engineering Ltd
Priority to JP2015176016A priority Critical patent/JP6523883B2/en
Publication of JP2017054199A publication Critical patent/JP2017054199A/en
Application granted granted Critical
Publication of JP6523883B2 publication Critical patent/JP6523883B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To recognize positions of a plurality of objects each having a hole or a recess at the center, with high accuracy.SOLUTION: An acquisition unit 11 of an estimation apparatus 20 acquires image data of an image formed by a camera 32 imaging a bread group area including all breads when a predetermined number of breads are stored in a predetermined arrangement direction in a supply food tray which can store a plurality of breads each having a hole at the center in the arrangement direction. A detection unit 12 detects positions of both ends in the arrangement direction of the bread group area represented by the acquired image data. A deriving unit 13 derives a plurality of sub areas by equally dividing a part between the detected both ends by the predetermined number. An estimation unit 15 estimates a position of the center in the arrangement direction of each of the derived sub areas, as a position of the hole in each of the breads.SELECTED DRAWING: Figure 2

Description

本発明は、推定装置、物体位置認識装置及び推定プログラムに関する。   The present invention relates to an estimation device, an object position recognition device, and an estimation program.

従来、物体をカメラで撮影して得られた画像データを2値化して得られた2値画像データを用いて上記物体を検査する技術として、物体表面に施された刻印をカメラで撮影し、得られた画像を処理することで刻印の形状を検査する技術があった。   Conventionally, as a technique for inspecting the object using binary image data obtained by binarizing image data obtained by photographing an object with a camera, a mark applied to the object surface is photographed with a camera, There has been a technique for inspecting the shape of a stamp by processing the obtained image.

この技術では、カメラで撮影された入力画像に対し、刻印部分をマスキングして背景部分の輝度分布を求め、該輝度分布に基づいて2値化処理の閾値を設定する。そして、この技術では、設定した閾値により入力画像に対して2値化処理を施し、これによって得られた明と暗の2値画像データを利用して刻印形状の良否を判定する。   According to this technique, a marking portion is masked from an input image photographed by a camera to obtain a luminance distribution of a background portion, and a threshold value for binarization processing is set based on the luminance distribution. In this technique, the input image is binarized according to the set threshold value, and the quality of the stamped shape is determined using the light and dark binary image data obtained thereby.

特開2006−118895号公報JP 2006-118895 A

ところで、複数の物体が収容体に収容された状態において、該収容体から各物体をロボットによって取り出したい場合がある。例えば、製パン工場から多数のパンを入荷し、コンビニエンス・ストアやスーパー・マーケット等の店舗向けに、店舗毎に要求された数ずつパンを振り分けて配送する配送センタの事例が挙げられる。即ち、上記配送センタにおいて、製パン工場から入荷された入荷用の番重からパンをピッキングロボットにより1つずつ取り出して、最終的に各店舗から要求された数のパンを店舗毎に出荷用の番重に収容したい場合等である。   By the way, in a state where a plurality of objects are accommodated in the container, there are cases where it is desired to take out each object from the container by a robot. For example, there is an example of a delivery center that receives a large number of breads from a bakery factory and distributes and distributes the breads required for each store to a store such as a convenience store or a supermarket. That is, at the delivery center, breads are picked up one by one from the incoming weight received from the bakery factory by the picking robot, and finally the number of breads requested from each store is shipped for each store. This is the case when you want to keep it in a safe place.

この場合、収容体における個々の物体の位置を認識する必要があり、この技術として、該複数の物体に対する撮影によって得られた画像データを用いて、個々の物体の位置を認識する技術が考えられる。   In this case, it is necessary to recognize the position of each object in the container. As this technique, a technique for recognizing the position of each object using image data obtained by photographing the plurality of objects can be considered. .

しかしながら、この技術では、中央部に環状、矩形状等の各種形状の穴又は凹部を有する複数の物体の各々の位置を正確に認識することは困難であった。該穴又は凹部の領域と、各物体の間の隙間の領域とが区別し難いためである。なお、中央部に穴又は凹部を有する物体としては、上述した製パン工場において製造される円環状(ドーナツ状)のパンや、ドーナツ、中央部が窪んだパン等の食品の他、タイヤ、ナット等の環状の部材等が例示される。   However, with this technique, it has been difficult to accurately recognize the position of each of a plurality of objects having holes or recesses of various shapes such as an annular shape and a rectangular shape at the center. This is because it is difficult to distinguish the region of the hole or recess from the region of the gap between the objects. In addition, as an object which has a hole or a recessed part in a center part, in addition to foods, such as an annular | circular (doughnut-shaped) bread manufactured in the bread-making factory mentioned above, a donut, a bread | pan with a hollow center part, a tire, a nut An annular member or the like is exemplified.

この問題を解決するために、上記従来の技術を利用して、物体の画像に対して該物体の穴又は凹部に対応する位置をマスキングして各物体の位置を認識することも考えられる。しかしながら、この場合、何らかの原因で各物体の位置が、想定される位置からずれた場合には、正確な位置にマスキングを行うことができず、この結果として各物体の位置の認識精度が著しく低下する。   In order to solve this problem, it may be possible to recognize the position of each object by masking the position corresponding to the hole or recess of the object with respect to the image of the object by using the conventional technique. However, in this case, if the position of each object deviates from the assumed position for some reason, masking cannot be performed at the correct position, and as a result, the recognition accuracy of the position of each object is significantly reduced. To do.

なお、以上の問題は、複数の物体が収容体に収容された状態において、該収容体から各物体をロボットによって取り出したい場合に限らず、他の複数の物体の位置を認識する用途においては生じ得る問題である。   Note that the above problems occur not only in the case where a plurality of objects are accommodated in the container, but also in applications where the positions of other objects are recognized, not only when each object is to be removed from the container by the robot. It is a problem to get.

本発明は、一つの側面として、中央部に穴又は凹部を有する複数の物体の各々の位置を高精度に認識できるようにすることが目的である。   An object of the present invention is, as one aspect, to make it possible to recognize each position of a plurality of objects having a hole or a recess in a central portion with high accuracy.

1つの態様では、収容体に、中央部に穴又は凹部が設けられた物体が、平面視の方向と交差する所定の配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部を備える。ここで、前記収容体は、前記物体を、平面視で前記穴又は凹部が視認可能な向きで、前記配列方向に複数収容できるものとされている。また、前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部を備える。また、前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部を備える。また、前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部を備える。   In one aspect, all the objects accommodated in the container in a state in which a predetermined number of objects having holes or recesses provided in the central part are accommodated in a predetermined arrangement direction intersecting the direction in plan view are accommodated in the container. An acquisition unit that acquires image data of an image obtained by imaging the object group region including the object by the imaging unit. Here, the container is configured to be capable of accommodating a plurality of the objects in the arrangement direction in such a direction that the holes or the recesses are visible in a plan view. Moreover, the detection part which detects the position of the said arrangement direction both ends of the said object group area | region which the image data acquired by the said acquisition part shows is provided. In addition, a derivation unit that derives a plurality of divided regions by equally dividing the end portions detected by the detection unit by the predetermined number is provided. Moreover, the estimation part which estimates the position of the said array direction center part in the some division area derived | led-out by the said deriving part as the position of the said hole or recessed part in each of the said object is provided.

一つの側面として、中央部に穴又は凹部を有する複数の物体の各々の位置を高精度に認識することができる、という効果を有する。   As one aspect, there is an effect that the position of each of a plurality of objects having a hole or a recess at the center can be recognized with high accuracy.

実施形態に係る物体振り分けシステムの構成の一例を示す平面図(一部ブロック図)である。It is a top view (partial block diagram) showing an example of the composition of the object distribution system concerning an embodiment. 実施形態に係る物体位置認識装置の機能ブロック図である。It is a functional block diagram of the object position recognition apparatus concerning an embodiment. 実施形態に係るコンピュータの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the computer which concerns on embodiment. 実施形態に係る物体位置認識処理の一例を示すフローチャートである。It is a flowchart which shows an example of the object position recognition process which concerns on embodiment. 実施形態に係る初期情報入力画面の一例を示す概略図である。It is the schematic which shows an example of the initial stage information input screen which concerns on embodiment. 実施形態に係る正番重処理の一例を示すフローチャートである。It is a flowchart which shows an example of the normal number weight process which concerns on embodiment. 実施形態に係る正番重処理の説明に供する図であり、正番重の2値画像データが示す2値画像の例を示す図である。FIG. 5 is a diagram for explaining a positive weight process according to the embodiment, and is a diagram illustrating an example of a binary image indicated by a positive weight binary image data. 実施形態に係る正番重処理の説明に供する図であり、境界線の抽出方法の説明に供する図である。It is a figure with which it uses for description of the normal number weight process which concerns on embodiment, and is a figure where it uses for description of the extraction method of a boundary line. 実施形態に係る正番重処理の説明に供する図であり、外接矩形枠及び分割領域の例を示す図である。It is a figure with which it uses for description of the normal number weight process which concerns on embodiment, and is a figure which shows the example of a circumscribed rectangular frame and a division area. 実施形態に係る正番重処理の説明に供する図であり、横列方向の分割領域の調整の説明に供する図である。It is a figure with which it uses for description of the normal number weight process which concerns on embodiment, and is a figure where it uses for description of adjustment of the division area of a row direction. 実施形態に係る正番重処理の説明に供する図であり、縦列方向の分割領域の調整の説明に供する図である。It is a figure with which it uses for description of the normal number weight process which concerns on embodiment, and is a figure where it uses for description of adjustment of the division area of a column direction. 実施形態に係る正番重処理の説明に供する図であり、マスクデータの配置位置の例を示す図である。FIG. 5 is a diagram for explaining a normal number weight process according to the embodiment, and is a diagram illustrating an example of an arrangement position of mask data. 実施形態に係る正番重処理の説明に供する図であり、マスクデータの重畳の状態及びマスクデータの重畳後の2値画像データの例を示す図である。FIG. 5 is a diagram for explaining the normal number weight processing according to the embodiment, and is a diagram illustrating an example of superposition of mask data and binary image data after superposition of mask data. 実施形態に係る端数番重処理の一例を示すフローチャートである。It is a flowchart which shows an example of the fraction number process which concerns on embodiment. 実施形態に係る端数番重処理の説明に供する図であり、端数番重の2値画像データが示す2値画像の例を示す図である。It is a figure for explanation of fraction number processing according to the embodiment, and is a diagram illustrating an example of a binary image indicated by binary image data of fraction number. 実施形態に係る端数番重処理の説明に供する図であり、マスクデータの仮の配置位置の例を示す図である。FIG. 6 is a diagram for explaining the fraction number processing according to the embodiment and is a diagram illustrating an example of a temporary arrangement position of mask data. 実施形態に係る端数番重処理の説明に供する図であり、不要なマスクデータの除去方法の説明に供する図である。It is a figure with which it uses for description of the fraction number processing which concerns on embodiment, and is a figure where it uses for description of the removal method of unnecessary mask data. 実施形態に係る端数番重処理の説明に供する図であり、不要なマスクデータを除去した状態の例を示す図である。FIG. 10 is a diagram for explaining the fractional number processing according to the embodiment, and is a diagram illustrating an example of a state in which unnecessary mask data is removed. 実施形態に係る端数番重処理の説明に供する図であり、マスクデータの重畳後の2値画像データの例を示す図である。FIG. 6 is a diagram for explaining the fraction number processing according to the embodiment and is a diagram illustrating an example of binary image data after superimposition of mask data. 実施形態に係る最終番重処理の一例を示すフローチャートである。It is a flowchart which shows an example of the last number process which concerns on embodiment. 実施形態に係る最終番重処理の説明に供する図である。It is a figure with which it uses for description of the last weight process which concerns on embodiment. 実施形態に係る物体位置の誤認識の説明に供する図である。It is a figure where it uses for description of the misrecognition of the object position which concerns on embodiment. 実施形態に係る物体位置の誤認識の説明に供する図である。It is a figure where it uses for description of the misrecognition of the object position which concerns on embodiment. 実施形態に係る物体位置の誤認識の説明に供する図である。It is a figure where it uses for description of the misrecognition of the object position which concerns on embodiment. 実施形態に係る第2物体位置認識の説明に供する図である。It is a figure where it uses for description of the 2nd object position recognition which concerns on embodiment. 実施形態に係る第2物体位置認識の説明に供する図である。It is a figure where it uses for description of the 2nd object position recognition which concerns on embodiment.

以下、図面を参照して、本発明の実施形態の一例を詳細に説明する。なお、本実施形態では、本発明を、製パン工場から多数のパン(本発明の「物体」に相当。)を、入荷用番重に収容された状態で入荷し、複数の店舗向けに、店舗毎に要求された数ずつパンを振り分けて配送する配送センタに適用した場合について説明する。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. In the present embodiment, the present invention receives a large number of breads (corresponding to the “objects” of the present invention) from a bakery factory in a state of being accommodated in the arrival weight, for a plurality of stores, A case will be described in which the present invention is applied to a distribution center that distributes and distributes bread according to the number requested for each store.

図1には、本実施形態に係る配送センタにおいてパンを振り分ける物体振り分けシステム90の全体的な構成の一例を示す平面図(一部ブロック図)が示されている。   FIG. 1 is a plan view (partial block diagram) showing an example of the overall configuration of an object sorting system 90 that sorts bread in the distribution center according to the present embodiment.

図1に示すように、本実施形態に係る物体振り分けシステム90は、物体位置認識装置10、ピッキングロボット30、距離画像カメラ(以下、単に「カメラ」という。)32、テーブル40及びベルトコンベア46が備えられている。   As shown in FIG. 1, the object sorting system 90 according to the present embodiment includes an object position recognition device 10, a picking robot 30, a distance image camera (hereinafter simply referred to as “camera”) 32, a table 40, and a belt conveyor 46. Is provided.

ベルトコンベア46は、製パン工場から入荷したパン44を各店舗に向けて必要数ずつ配送するべく、各店舗から要求された数のパン44を収容する出荷用番重48を載せて所定方向(本実施形態では、図1の矢印D方向)に移動搬送する。なお、本実施形態では、パン44として中央部に貫通穴(以下、単に「穴」という。)44Aが空けられたドーナツ状のパンを適用しているが、これに限定されるものではなく、例えば、中央部に凹部が形成されたパン等を適用してもよい。   The belt conveyor 46 carries a shipping weight 48 for storing the required number of breads 44 from each store in order to deliver the required number of breads 44 received from the bakery factory to each store in a predetermined direction ( In this embodiment, it is moved and conveyed in the direction of arrow D in FIG. In this embodiment, a donut-shaped pan having a through-hole (hereinafter simply referred to as “hole”) 44 </ b> A in the center is applied as the pan 44. However, the present invention is not limited to this. For example, you may apply the bread | pan etc. in which the recessed part was formed in the center part.

一方、テーブル40は、一端部側(図1の下側)が、各々複数のパン44が収容された複数の入荷用番重42が積み重ねられる場所(以下、「積層場所」という。)40Aとされている。また、テーブル40は、中間部が、積層場所40Aに積み重ねられた複数の入荷用番重42から個々の入荷用番重42が1つずつ移動されて、該入荷用番重42からパン44が取り出される場所(以下、「ピッキング場所」という。)40Bとされている。また、テーブル40は、上記一端部側とは反対側の他端部側(図1の上側)が、ベルトコンベア46の中間部に近接する位置に位置決めされている。そして、テーブル40の他端部側にピッキングロボット30が設置されている。ピッキングロボット30は、ピッキング場所40Bに移動された入荷用番重42内からパン44を取り出し、ベルトコンベア46によって搬送されてきた出荷用番重48内に収容する。   On the other hand, one end of the table 40 (the lower side in FIG. 1) is a place (hereinafter referred to as a “stacking place”) 40A where a plurality of receiving loads 42 each containing a plurality of pans 44 are stacked. Has been. In addition, the intermediate portion of the table 40 is moved one by one from the plurality of receiving loads 42 stacked in the stacking place 40A one by one, and the pan 44 is moved from the receiving load 42. A place to be taken out (hereinafter referred to as “picking place”) 40B. Further, the other end side (the upper side in FIG. 1) of the table 40 opposite to the one end side is positioned at a position close to the intermediate portion of the belt conveyor 46. A picking robot 30 is installed on the other end side of the table 40. The picking robot 30 takes out the pan 44 from the arrival number 42 moved to the picking place 40 </ b> B and stores it in the shipment number 48 conveyed by the belt conveyer 46.

本実施形態に係る物体振り分けシステム90では、テーブル40の積層場所40Aに、収容可能な上限数のパン44が収容された番重である正番重とされた入荷用番重42を積み重ねる。なお、本実施形態に係る物体振り分けシステム90では、製パン工場からの入荷数に応じて端数となるパン44が収容された番重である端数番重がある場合、該端数番重とされた入荷用番重42を積層場所40Aの最上層に積み重ねる。そして、本実施形態に係る物体振り分けシステム90では、積層場所40Aに積み重ねられた複数の入荷用番重42を、最下層の入荷用番重42からピッキング場所40Bに1つずつ順次移動させる。   In the object sorting system 90 according to the present embodiment, a loading weight 42 that is a normal weight, which is a weight that accommodates the upper limit number of breads 44 that can be accommodated, is stacked in the stacking place 40 </ b> A of the table 40. In the object sorting system 90 according to the present embodiment, when there is a fraction weight that is a weight in which the bread 44 that is a fraction is accommodated according to the number of arrivals from the bakery factory, the fraction weight is determined. The incoming load 42 is stacked on the uppermost layer of the stacking place 40A. In the object sorting system 90 according to the present embodiment, the plurality of arrival weights 42 stacked in the stacking place 40A are sequentially moved one by one from the lowermost arrival weight 42 to the picking place 40B.

なお、本実施形態に係る物体振り分けシステム90では、テーブル40の積層場所40Aに入荷用番重42を積み重ねる第1工程を配送センタの作業員(以下、単に「作業員」という。)が行うものとされている。また、本実施形態に係る物体振り分けシステム90では、積層場所40Aからピッキング場所40Bに入荷用番重42を移動させる第2工程を、図示しない移動機構によって自動的に順次行うものとされている。さらに、本実施形態に係る物体振り分けシステム90では、ピッキングロボット30によって全てのパン44が振り分けられ、空になった入荷用番重42をピッキング場所40Bから除去する第3工程を作業員が行うものとされている。しかしながら、これらの第1工程及び第3工程の各工程は、作業員によって行われる形態に限定されるものではない。これらの工程を、搬送用ロボットや移動機構等によって自動的に行う形態としてもよい。また、第2工程についても移動機構等によって自動的に行う形態に限らず、作業員が手作業で行う形態としてもよい。   In the object sorting system 90 according to the present embodiment, a worker at the delivery center (hereinafter, simply referred to as “worker”) performs the first step of stacking the incoming load 42 on the stacking place 40A of the table 40. It is said that. Further, in the object sorting system 90 according to the present embodiment, the second step of moving the incoming load 42 from the stacking place 40A to the picking place 40B is automatically and sequentially performed by a moving mechanism (not shown). Furthermore, in the object sorting system 90 according to the present embodiment, all the breads 44 are sorted by the picking robot 30 and the worker performs the third step of removing the empty stock load 42 from the picking location 40B. It is said that. However, each process of these 1st processes and 3rd processes is not limited to the form performed by a worker. These steps may be automatically performed by a transfer robot, a moving mechanism, or the like. Further, the second process is not limited to a form automatically performed by a moving mechanism or the like, but may be a form manually performed by an operator.

一方、本実施形態に係る物体位置認識装置10は推定装置20を有している。本実施形態に係る推定装置20は、ピッキング場所40Bに設けられた入荷用番重42に収容されているパン44の個々の穴44Aの位置を推定する。そして、本実施形態に係る物体位置認識装置10は、推定装置20によって推定されたパン44の個々の穴44Aの位置等に基づいて、入荷用番重42におけるパン44の個々の位置を認識する。   On the other hand, the object position recognition apparatus 10 according to the present embodiment includes an estimation apparatus 20. The estimation apparatus 20 according to the present embodiment estimates the positions of the individual holes 44A of the pan 44 accommodated in the arrival load 42 provided in the picking place 40B. Then, the object position recognition device 10 according to the present embodiment recognizes each position of the pan 44 in the arrival load 42 based on the position of each hole 44A of the pan 44 estimated by the estimation device 20. .

図1に示すように、物体位置認識装置10には、ピッキングロボット30及びカメラ32が接続されている。本実施形態に係るカメラ32は、ピッキング場所40Bの上方に設けられて、撮影方向が下方側へ向けられており、ピッキング場所40Bに設けられた入荷用番重42の配置領域の全域における距離画像データを取得する。ここで、距離画像データとは、画像データの各画素の値が、カメラ32による撮影画角内における画素毎の被写体までの距離を示すデータであり、カメラ32の一例としては、米国マイクロソフト社製のキネクト(Kinect(登録商標))が例示される。   As shown in FIG. 1, a picking robot 30 and a camera 32 are connected to the object position recognition device 10. The camera 32 according to the present embodiment is provided above the picking place 40B, the photographing direction is directed downward, and the distance image in the entire arrangement region of the arrival load 42 provided in the picking place 40B. Get the data. Here, the distance image data is data in which the value of each pixel of the image data indicates the distance to the subject for each pixel within the field angle of view taken by the camera 32. The Kinect (Kinect (registered trademark)) is exemplified.

このように、本実施形態では、カメラ32として距離画像カメラを適用した場合について記載するが、これに限定されるものではない。例えば、市販のカラー画像やモノクロ画像を撮影するカメラをカメラ32として適用する形態としてもよい。   Thus, in this embodiment, although the case where a distance image camera is applied as the camera 32 is described, it is not limited to this. For example, a commercially available camera that captures a color image or a monochrome image may be applied as the camera 32.

本実施形態に係る推定装置20は、カメラ32によって得られた距離画像データにおける、パン44の高さ方向の上端部から中央部までの範囲の距離を示す画素を「0」(白)とし、他の画素を「1」(黒)とすることにより2値画像データを生成する。この距離画像データの2値化によって、パン44の画像領域と、他の画像領域とを、異なる値で区分することができる。なお、本実施形態では、以上のように、パン44の画像領域を「0」とし、他の画像領域を「1」としているが、これに限らず、パン44の画像領域を「1」とし、他の画像領域を「0」としてもよい。   The estimation apparatus 20 according to the present embodiment sets the pixel indicating the distance in the range from the upper end to the center of the pan 44 in the distance image data obtained by the camera 32 as “0” (white), By setting other pixels to “1” (black), binary image data is generated. By binarizing the distance image data, the image area of the pan 44 and the other image areas can be divided by different values. In the present embodiment, as described above, the image area of the pan 44 is set to “0” and the other image areas are set to “1”. However, the present invention is not limited to this, and the image area of the pan 44 is set to “1”. The other image area may be “0”.

また、推定装置20は、生成した2値画像データを用いて、ピッキング場所40Bに設けられた入荷用番重42に収容されているパン44の穴44Aの位置を推定する。   In addition, the estimation device 20 estimates the position of the hole 44A of the pan 44 accommodated in the arrival load 42 provided in the picking place 40B using the generated binary image data.

一方、本実施形態に係る物体位置認識装置10は、上述したように、推定装置20によって推定されたパン44の穴44Aの位置等に基づいて、入荷用番重42におけるパン44の個々の位置を認識する。そして、物体位置認識装置10は、認識したパン44の位置を示す位置情報をピッキングロボット30に送信する。   On the other hand, the object position recognizing device 10 according to the present embodiment, as described above, is based on the position of the hole 44A of the pan 44 estimated by the estimating device 20, and the individual positions of the pan 44 in the incoming load 42. Recognize Then, the object position recognition device 10 transmits position information indicating the position of the recognized pan 44 to the picking robot 30.

ピッキングロボット30は、物体位置認識装置10から位置情報を受信すると、該位置情報に基づいて、ピッキング場所40Bに設けられた入荷用番重42からパン44を取り出す。そして、ピッキングロボット30は、入荷用番重42から取り出したパン44を、ベルトコンベア46によって物体収容位置46Aに位置決めされた出荷用番重48に必要数だけ収容する。ピッキングロボット30による出荷用番重48への必要数のパン44の収容が終了すると、ベルトコンベア46は、該出荷用番重48を、配送センタにおける出荷口等の所定の場所まで移動搬送する。   When the picking robot 30 receives the position information from the object position recognition device 10, the picking robot 30 takes out the pan 44 from the receiving load 42 provided in the picking place 40B based on the position information. The picking robot 30 accommodates the necessary number of pans 44 taken out from the arrival load 42 in the shipment load 48 positioned at the object accommodation position 46A by the belt conveyor 46. When the picking robot 30 has received the required number of pans 44 in the shipping weight 48, the belt conveyor 46 moves and transports the shipping weight 48 to a predetermined location such as a shipping port in the delivery center.

なお、本実施形態に係る入荷用番重42は、パン44が平面視でパン44の穴44Aが視認可能な向きで、平面視の方向と交差する所定の配列方向(本実施形態では、一例として図1に示すように、横列方向及び縦列方向の2方向)に複数収容できる。本実施形態に係る入荷用番重42は、図1に示すように、最大で4個(横列方向)×3個(縦列方法)の合計12個のパン44が、各パン44の穴44Aが視認可能な向きで平置きされるものとされているが、これらの最大数は一例であることは言うまでもない。   In addition, the arrival load 42 according to the present embodiment has a predetermined arrangement direction (an example in the present embodiment) that intersects the direction of the plan view in such a direction that the pan 44 can be seen through the hole 44A of the pan 44 in the plan view. As shown in FIG. 1, a plurality of storages can be accommodated in two directions (a row direction and a column direction). As shown in FIG. 1, the arrival load 42 according to the present embodiment includes a total of 12 pans 44 (up to 4 (row direction) × 3 (column method)), and holes 44 </ b> A of each pan 44. Needless to say, the maximum number is only an example, although it is supposed to be laid flat in a visually recognizable orientation.

図2には、本実施形態に係る物体位置認識装置10及び該物体位置認識装置10に含まれる推定装置20が示されている。図2に示すように、本実施形態に係る推定装置20は、取得部11、検出部12、導出部13、受付部14及び推定部15を備えている。また、本実施形態に係る物体位置認識装置10は、推定装置20、重畳部17及び認識部18を備えている。   FIG. 2 shows an object position recognition apparatus 10 according to the present embodiment and an estimation apparatus 20 included in the object position recognition apparatus 10. As illustrated in FIG. 2, the estimation device 20 according to the present embodiment includes an acquisition unit 11, a detection unit 12, a derivation unit 13, a reception unit 14, and an estimation unit 15. The object position recognition device 10 according to the present embodiment includes an estimation device 20, a superimposition unit 17, and a recognition unit 18.

取得部11は、収容可能な上限数のパン44が平面状に収容されて正番重とされた入荷用番重42の全てのパン44を含む物体群領域を包含する撮影領域をカメラ32で撮影することにより該撮影領域の距離画像データを取得する。そして、取得部11は、取得した距離画像データを前述したように2値化することにより、上記物体群領域を含む画像を示す2値画像データを生成する。   The acquisition unit 11 uses the camera 32 to capture an imaging region including an object group region including all the pans 44 of the loading weight 42 in which the upper limit number of breads 44 that can be accommodated are accommodated in a planar shape and set to a normal weight. The distance image data of the shooting area is acquired by shooting. And the acquisition part 11 produces | generates the binary image data which shows the image containing the said object group area | region by binarizing the acquired distance image data as mentioned above.

また、検出部12は、取得部11によって生成された2値画像データが示す2値画像中の物体群領域の、パン44の配列方向の両端部の位置を検出する。また、導出部13は、検出部12によって検出された両端部の間を上記上限数で均等に分割することにより複数の分割領域を導出する。更に、推定部15は、導出部13によって導出された複数の分割領域内の中央部の位置をパン44の各々における穴44Aの位置であると推定する。なお、受付部14は、上記上限数の入力を受け付けるものとされており、導出部13は、受付部14によって受け付けられた上限数を用いて、上記分割領域を導出する。   In addition, the detection unit 12 detects the positions of both ends in the arrangement direction of the pan 44 in the object group region in the binary image indicated by the binary image data generated by the acquisition unit 11. The deriving unit 13 derives a plurality of divided regions by equally dividing the upper end number between both ends detected by the detecting unit 12. Further, the estimating unit 15 estimates the position of the central portion in the plurality of divided regions derived by the deriving unit 13 as the position of the hole 44 </ b> A in each of the pans 44. The accepting unit 14 is assumed to accept the input of the upper limit number, and the deriving unit 13 derives the divided area using the upper limit number accepted by the accepting unit 14.

ところで、本実施形態に係る物体振り分けシステム90では、入荷用番重42が、パン44が上記配列方向として横列方向及び縦列方向の2つの方向に各々複数収容可能とされている。このため、本実施形態に係る検出部12は、横列方向及び縦列方向の各々別に、上記物体群領域における上記両端部の位置を検出する。また、導出部13は、横列方向及び縦列方向の各々別に、検出部12によって検出された両端部の間を、対応する上限数で均等に分割することにより複数の分割領域を導出する。そして、推定部15は、横列方向及び縦列方向の各々別に、導出部13によって導出された複数の分割領域内の中央部の位置をパン44の各方向に沿った穴44Aの位置であると推定する。   By the way, in the object distribution system 90 according to the present embodiment, a plurality of arrival weights 42 can be accommodated in each of two directions, ie, a row direction and a column direction, as the arrangement direction of the pans 44. For this reason, the detection unit 12 according to the present embodiment detects the positions of the both end portions in the object group region for each of the row direction and the column direction. In addition, the deriving unit 13 derives a plurality of divided regions by equally dividing the both end portions detected by the detecting unit 12 by the corresponding upper limit number for each of the row direction and the column direction. Then, the estimating unit 15 estimates that the position of the central portion in the plurality of divided regions derived by the deriving unit 13 is the position of the hole 44A along each direction of the pan 44 for each of the row direction and the column direction. To do.

特に、本実施形態に係る検出部12は、導出部13によって導出された複数の分割領域のうち、横列方向及び縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の両端部の位置を更に検出する。また、検出部12は、導出部13によって導出された複数の分割領域のうち、横列方向及び縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の両端部の位置を更に検出する。また、導出部13は、検出部12によって検出された、横列方向に沿った複数の分割領域群及び縦列方向に沿った複数の分割領域群の各々の両端部の間を、対応する上限数で均等に分割することにより上記複数の分割領域を再度導出する。そして、推定部15は、横列方向及び縦列方向の各々別に、導出部13によって再度導出された複数の分割領域内の中央部の位置をパン44の各々における穴44Aの位置であると推定する。   In particular, the detection unit 12 according to the present embodiment includes, for each of a plurality of divided region groups along one of the row direction and the column direction among the plurality of divided regions derived by the derivation unit 13. The position of both ends is further detected. In addition, the detection unit 12 determines the positions of both ends of each of the plurality of divided region groups along the other arrangement direction of the row direction and the column direction among the plurality of divided regions derived by the derivation unit 13. Further detect. In addition, the deriving unit 13 has a corresponding upper limit number between the respective ends of the plurality of divided region groups along the row direction and the plurality of divided region groups along the column direction detected by the detecting unit 12. The plurality of divided areas are derived again by equally dividing. Then, the estimation unit 15 estimates the position of the central portion in the plurality of divided regions derived again by the deriving unit 13 as the position of the hole 44 </ b> A in each of the pans 44 for each of the row direction and the column direction.

また、本実施形態に係る推定部15は、入荷用番重42に収容されているパン44の数が上限数より少ない場合、入荷用番重42が正番重である場合に推定した穴44Aの位置を、入荷用番重42に収容されているパン44の穴44Aの仮の位置であるとする。そして、推定部15は、上記仮の位置のうち、パン44の画像以外の画像に囲まれている割合が所定値未満の位置を、パン44の各々における穴44Aの位置であると推定する。   Moreover, the estimation part 15 which concerns on this embodiment is the hole 44A estimated when the number of bread | pans 44 accommodated in the arrival weight 42 is less than an upper limit number, when the arrival weight 42 is a positive weight. Is the provisional position of the hole 44 </ b> A of the pan 44 accommodated in the arrival load 42. Then, the estimation unit 15 estimates a position in which the ratio surrounded by images other than the image of the pan 44 among the temporary positions is less than a predetermined value as the position of the hole 44 </ b> A in each of the pans 44.

なお、本実施形態に係る物体振り分けシステム90では、カメラ32によって距離画像データを取得している。このため、本実施形態に係る推定部15等は、カメラ32によって取得された距離画像データを前述したように2値化した2値画像データを用いている。しかしながら、これに限定されるものではない。例えば、カメラ32としてカラー画像を撮影するカメラやモノクロ画像を撮影するカメラ等を適用した場合には、カメラ32によって取得された複数階調の画像データを予め定められた閾値で2値化した2値画像データを用いればよい。   In the object sorting system 90 according to the present embodiment, the distance image data is acquired by the camera 32. For this reason, the estimation unit 15 and the like according to the present embodiment uses binary image data obtained by binarizing the distance image data acquired by the camera 32 as described above. However, the present invention is not limited to this. For example, when a camera that captures a color image, a camera that captures a monochrome image, or the like is applied as the camera 32, image data of a plurality of gradations acquired by the camera 32 is binarized with a predetermined threshold value 2 Value image data may be used.

一方、重畳部17は、2値画像データにおける、推定部15により推定された位置に対して、穴44Aをマスクするためのマスクデータを重畳させ、認識部18は、重畳部17によりマスクデータが重畳された2値画像データを用いてパン44の配置位置を認識する。なお、認識部18によるパン44の配置位置の認識結果はピッキングロボット30に送信され、ピッキングロボット30により、認識部18から受信した認識結果が用いられて、入荷用番重42に収容された個々のパン44のピッキングが行われる。   On the other hand, the superimposing unit 17 superimposes mask data for masking the hole 44A on the position estimated by the estimating unit 15 in the binary image data, and the recognizing unit 18 receives the mask data from the superimposing unit 17. The arrangement position of the pan 44 is recognized using the superimposed binary image data. The recognition result of the arrangement position of the pan 44 by the recognition unit 18 is transmitted to the picking robot 30, and the recognition result received from the recognition unit 18 is used by the picking robot 30, and the individual accommodated in the arrival load 42. The picking of the bread 44 is performed.

推定装置20における取得部11は本発明に係る取得部の一例であり、検出部12は本発明に係る検出部の一例であり、導出部13は本発明に係る導出部の一例である。また、推定装置20における受付部14は本発明に係る受付部の一例であり、推定部15は本発明に係る推定部の一例である。また、物体位置認識装置10の認識部18は本発明に係る認識部の一例である。   The acquisition unit 11 in the estimation device 20 is an example of an acquisition unit according to the present invention, the detection unit 12 is an example of a detection unit according to the present invention, and the derivation unit 13 is an example of a derivation unit according to the present invention. Moreover, the reception part 14 in the estimation apparatus 20 is an example of the reception part which concerns on this invention, and the estimation part 15 is an example of the estimation part which concerns on this invention. The recognition unit 18 of the object position recognition device 10 is an example of a recognition unit according to the present invention.

物体位置認識装置10及び推定装置20は、例えば図3に示すコンピュータ50で実現することができる。コンピュータ50はCPU(Central Processing Unit)51、メモリ52、記憶部53、入力部54、表示部55、インタフェース(I/F)部56を備えている。CPU51、メモリ52、記憶部53、入力部54、表示部55、I/F部56はバス59を介して互いに接続されている。I/F部56には上述したピッキングロボット30及びカメラ32が接続されている。なお、本実施形態では、ピッキングロボット30及びカメラ32が有線によりコンピュータ50に接続されているが、これに限らず、無線で接続される形態としてもよい。   The object position recognition device 10 and the estimation device 20 can be realized by a computer 50 shown in FIG. 3, for example. The computer 50 includes a central processing unit (CPU) 51, a memory 52, a storage unit 53, an input unit 54, a display unit 55, and an interface (I / F) unit 56. The CPU 51, memory 52, storage unit 53, input unit 54, display unit 55, and I / F unit 56 are connected to each other via a bus 59. The above-described picking robot 30 and camera 32 are connected to the I / F unit 56. In the present embodiment, the picking robot 30 and the camera 32 are connected to the computer 50 by wire. However, the present invention is not limited to this, and may be connected wirelessly.

また、記憶部53はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現することができる。記録媒体としての記憶部53には、コンピュータ50を物体位置認識装置10及び推定装置20として機能させるための物体位置認識プログラム53Aが記憶されている。CPU51は、物体位置認識プログラム53Aを記憶部53から読み出してメモリ52に展開し、物体位置認識プログラム53Aが有するプロセスを順次実行する。   The storage unit 53 can be realized by an HDD (Hard Disk Drive), a flash memory, or the like. The storage unit 53 as a recording medium stores an object position recognition program 53A for causing the computer 50 to function as the object position recognition device 10 and the estimation device 20. The CPU 51 reads the object position recognition program 53A from the storage unit 53, expands it in the memory 52, and sequentially executes the processes included in the object position recognition program 53A.

物体位置認識プログラム53Aは、取得プロセス53A1、検出プロセス53A2、導出プロセス53A3、受付プロセス53A4、推定プロセス53A5、重畳プロセス53A6及び認識プロセス53A7を有する。CPU51は、取得プロセス53A1を実行することで、図2に示す取得部11として動作し、検出プロセス53A2を実行することで、図2に示す検出部12として動作し、導出プロセス53A3を実行することで図2に示す導出部13として動作する。また、CPU51は、受付プロセス53A4を実行することで、図2に示す受付部14として動作し、推定プロセス53A5を実行することで、図2に示す推定部15として動作する。更に、CPU51は、重畳プロセス53A6を実行することで、図2に示す重畳部17として動作し、認識プロセス53A7を実行することで、図2に示す認識部18として動作する。これにより、物体位置認識プログラム53Aを実行したコンピュータ50が、物体位置認識装置10及び推定装置20として機能することになる。なお、物体位置認識プログラム53Aは本発明の推定プログラムの一例を含む。   The object position recognition program 53A includes an acquisition process 53A1, a detection process 53A2, a derivation process 53A3, a reception process 53A4, an estimation process 53A5, a superimposition process 53A6, and a recognition process 53A7. The CPU 51 operates as the acquisition unit 11 illustrated in FIG. 2 by executing the acquisition process 53A1, and operates as the detection unit 12 illustrated in FIG. 2 and executes the derivation process 53A3 by executing the detection process 53A2. 2 operates as the derivation unit 13 shown in FIG. Further, the CPU 51 operates as the reception unit 14 illustrated in FIG. 2 by executing the reception process 53A4, and operates as the estimation unit 15 illustrated in FIG. 2 by executing the estimation process 53A5. Furthermore, the CPU 51 operates as the superimposing unit 17 illustrated in FIG. 2 by executing the superimposing process 53A6, and operates as the recognizing unit 18 illustrated in FIG. 2 by executing the recognition process 53A7. As a result, the computer 50 that has executed the object position recognition program 53A functions as the object position recognition device 10 and the estimation device 20. The object position recognition program 53A includes an example of the estimation program of the present invention.

一方、記憶部53には、画像データ記憶領域53Bが設けられている。CPU51が、画像データ記憶領域53Bに記憶された距離画像データをメモリ52に展開することにより、距離画像データが作成される。   On the other hand, the storage unit 53 is provided with an image data storage area 53B. The CPU 51 develops the distance image data stored in the image data storage area 53B in the memory 52, so that the distance image data is created.

なお、物体位置認識装置10は、パーソナル・コンピュータ、またはPDA(Personal Digital Assistant)の機能を搭載した携帯型の装置であるスマート端末等であってもよい。また、物体位置認識装置10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。   The object position recognition device 10 may be a personal computer or a smart terminal that is a portable device equipped with a PDA (Personal Digital Assistant) function. Further, the object position recognition apparatus 10 can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit) or the like.

次に、本実施形態の作用を説明する。本実施形態では、配送センタの作業員が処理対象とする複数の入荷用番重42をテーブル40の積層場所40Aに対して上述したように積層する。その後、作業員がコンピュータ50に対して物体位置認識プログラム53Aを実行させることで、図4に示す物体位置認識処理が行われる。なお、錯綜を回避するため、ここでは、カメラ32による撮影によって連続的に得られる距離画像データが記憶部53の画像データ記憶領域53Bにリアルタイムで記憶されるものとして説明する。   Next, the operation of this embodiment will be described. In the present embodiment, a plurality of arrival weights 42 to be processed by workers in the distribution center are stacked on the stacking place 40A of the table 40 as described above. Thereafter, the worker causes the computer 50 to execute the object position recognition program 53A, whereby the object position recognition process shown in FIG. 4 is performed. In order to avoid complications, here, it is assumed that distance image data obtained continuously by photographing with the camera 32 is stored in the image data storage area 53B of the storage unit 53 in real time.

物体位置認識処理のステップ100において、受付部14は、各種初期情報を入力するための画面として予め定められた初期情報入力画面を表示するように表示部55を制御し、次のステップ102において、受付部14は、所定情報の入力待ちを行う。   In step 100 of the object position recognition process, the receiving unit 14 controls the display unit 55 so as to display a predetermined initial information input screen as a screen for inputting various initial information, and in the next step 102, The reception unit 14 waits for input of predetermined information.

図5には、本実施形態に係る初期情報入力画面の一例が示されている。図5に示すように、本実施形態に係る初期情報入力画面では、入荷用番重42へのパン44の最大収容数を入力するための入力領域55A、及び今回の物体位置認識処理において処理対象とする入荷用番重42の数を入力するための入力領域55Bが表示される。ここで、上記最大収容数は上記上限数に相当する。なお、本実施形態に係る物体振り分けシステム90では、前述したように、1つの入荷用番重42に対して横列方向及び縦列方向の2次元状にパン44が収容できるものを処理対象としている。このため、本実施形態に係る初期情報入力画面では、最大収容数を入力するための入力領域55Aとして、横列方向の最大収容数を入力するための入力領域55A1、及び縦列方向の最大収容数を入力するための入力領域55A2が表示される。   FIG. 5 shows an example of the initial information input screen according to the present embodiment. As shown in FIG. 5, in the initial information input screen according to the present embodiment, the input area 55A for inputting the maximum number of breads 44 to be received in the arrival load 42, and the processing target in the current object position recognition process An input area 55B for inputting the number of arrival load 42 is displayed. Here, the maximum accommodation number corresponds to the upper limit number. In the object sorting system 90 according to the present embodiment, as described above, an object that can accommodate the pan 44 in a two-dimensional shape in the horizontal direction and the vertical direction with respect to one incoming load 42 is a processing target. For this reason, in the initial information input screen according to the present embodiment, as the input area 55A for inputting the maximum accommodation number, the input area 55A1 for inputting the maximum accommodation number in the row direction and the maximum accommodation number in the column direction are set. An input area 55A2 for input is displayed.

図5に示す初期情報入力画面が表示部55に表示されると、作業者は、入力部54を用いて、入荷用番重42へのパン44の横列方向の最大収容数を入力領域55A1に入力し、同じく縦列方向の最大収容数を入力領域55A2に入力する。また、作業員は、入力部54を用いて、今回の物体位置認識処理において処理対象とする入荷用番重42の数を入力領域55Bに入力する。   When the initial information input screen shown in FIG. 5 is displayed on the display unit 55, the operator uses the input unit 54 to set the maximum accommodation number in the row direction of the bread 44 to the arrival load 42 in the input area 55A1. Similarly, the maximum accommodation number in the column direction is input to the input area 55A2. In addition, the worker uses the input unit 54 to input the number of arrival load 42 to be processed in the current object position recognition process into the input area 55B.

作業員は、以上の入力が終了すると、初期情報入力画面に表示されている「入力終了」ボタン55Cを入力部54により指定する。「入力終了」ボタン55Cが指定されると、ステップ102が肯定判定となってステップ104に移行する。   When the above input is completed, the worker designates an “input end” button 55C displayed on the initial information input screen by the input unit 54. When the “input end” button 55C is designated, step 102 is affirmative and the routine proceeds to step 104.

ステップ104において、取得部11は、ピッキング場所40Bにパン44が収容された入荷用番重42が配置されているか否かを判定し、パン44が収容された入荷用番重42がピッキング場所40Bに配置されていると肯定判定となりステップ106に移行する。なお、ステップ104の処理を実行する際に、取得部11は、画像データ記憶領域53Bに記憶されている最新の距離画像データを読み出す。また、取得部11は、読み出した距離画像データを前述したように2値化することにより2値画像データを生成する。そして、取得部11は、生成した2値画像データが示す画像(以下、「処理対象画像」という。)に上記物体群領域が含まれているか否かを判定することにより、ステップ104による判定を行う。   In step 104, the acquisition unit 11 determines whether or not the arrival load 42 containing the pan 44 is disposed in the picking place 40B, and the arrival load 42 containing the pan 44 is set to the picking place 40B. If it is placed at, an affirmative determination is made and the routine proceeds to step 106. Note that when executing the process of step 104, the acquisition unit 11 reads the latest distance image data stored in the image data storage area 53B. Further, the acquisition unit 11 generates binary image data by binarizing the read distance image data as described above. Then, the acquisition unit 11 determines whether or not the object group region is included in an image indicated by the generated binary image data (hereinafter referred to as “processing target image”), thereby performing the determination in step 104. Do.

ステップ106において、検出部12は、ピッキング場所40Bに配置されている入荷用番重42(以下、「処理対象番重」という。)が、今回の物体位置認識処理で対象としている入荷用番重42のうちの最後の入荷用番重42であるか否かを判定する。そして、この判定が否定判定となった場合、即ち処理対象番重が最後の入荷用番重42でない場合はステップ108に移行する。なお、ステップ106における処理対象番重が最後の入荷用番重42であるか否かの判定は、例えば、積層場所40Aからピッキング場所40Bへの入荷用番重42の移動回数が、初期情報入力画面を介して入力された入荷用番重42の数に達したか否かを判定することにより行うことができる。また、テーブル40の積層場所40Aから入荷用番重42が無くなったか否かに基づいて、ステップ106の判定を行ってもよい。   In step 106, the detection unit 12 uses the arrival weight 42 (hereinafter referred to as “processing target weight”) arranged in the picking place 40 </ b> B as a target in the current object position recognition processing. It is determined whether or not it is the last arrival load 42 of 42. Then, if this determination is a negative determination, that is, if the processing target weight is not the last arrival weight 42, the routine proceeds to step 108. It should be noted that whether or not the processing target weight in step 106 is the last arrival weight 42 is determined, for example, by the number of movements of the arrival weight 42 from the stacking location 40A to the picking location 40B. This can be done by determining whether or not the number of incoming loads 42 entered via the screen has been reached. Further, the determination in step 106 may be performed based on whether or not the arrival weight 42 has disappeared from the stacking place 40A of the table 40.

ステップ108において、検出部12は、処理対象番重が正番重であるか否かを判定し、肯定判定となった場合はステップ110に移行する。なお、ステップ108における判定は、処理対象番重について、後述するステップ110の処理(正番重処理)が一度も実行されていない場合に正番重であると判定し、処理対象番重について正番重処理が実行された場合に正番重ではないと判定することにより行う。   In step 108, the detection unit 12 determines whether or not the processing target number is a positive number. If the determination is affirmative, the process proceeds to step 110. Note that the determination in step 108 is that the processing target weight is determined to be positive if the processing in step 110 (correct weight processing) described later has not been executed, and the processing target weight is correct. This is performed by determining that the number is not positive when the numbering process is executed.

ステップ110において、CPU51は、図6に示す正番重処理を行う。   In step 110, the CPU 51 performs the positive number processing shown in FIG.

正番重処理のステップ200において、取得部11は、画像データ記憶領域53Bから最新の距離画像データを読み出し、該距離画像データを前述したように2値化して2値画像データを生成する。次のステップ202において、検出部12は、生成した2値画像データからパン44の領域と他の領域との境界線を抽出する。   In step 200 of the normal weight processing, the acquisition unit 11 reads the latest distance image data from the image data storage area 53B, binarizes the distance image data as described above, and generates binary image data. In the next step 202, the detection unit 12 extracts a boundary line between the area of the pan 44 and another area from the generated binary image data.

図7には、左端に理想的な正番重とされた入荷用番重42の平面視のイメージを示す図が示されると共に、ステップ200の処理によって取得した2値画像データにより示される2値画像(処理対象画像)の3種類の例が示されている。   FIG. 7 is a diagram showing an image in plan view of the arrival load 42 that is an ideal positive weight at the left end, and the binary indicated by the binary image data acquired by the processing of step 200. Three types of images (processing target images) are shown.

図7の左端の図に示すように、本実施形態では、入荷用番重42が、4個(横列方向)×3個(縦列方向)の合計12個のドーナツ状のパン44が収容可能とされている。しかしながら、実際の処理対象画像は、入荷用番重42の移送の際の振動や傾斜等により、一例として図7の左から2番目の図に示すように、収容されているパン44が全体的に接触した状態となる場合がある。また、処理対象画像は、一例として図7の右から2番目の図に示すように、全体的に一箇所に偏った状態となる場合もある。更に、処理対象画像は、一例とした図7の右端の図に示すように、個々のパン44が離間した状態となる場合もある。なお、以下では、図7の左から2番目の図に示す処理対象画像を「第1画像」といい、図7の右から2番目の図に示す処理対象画像を「第2画像」といい、図7の右端の図に示す処理対象画像を「第3画像」という。   As shown in the leftmost diagram of FIG. 7, in this embodiment, the receiving load 42 can accommodate a total of twelve donut-shaped pans 44 of 4 (in the row direction) × 3 (in the column direction). Has been. However, the actual processing target image is shown in FIG. 7 as a second example from the left of FIG. It may be in a state of touching. In addition, as an example, the processing target image may be in a state of being biased to one place as shown in the second diagram from the right in FIG. Further, the processing target image may be in a state where the individual pans 44 are separated as shown in the rightmost diagram of FIG. 7 as an example. In the following, the processing target image shown in the second diagram from the left in FIG. 7 is referred to as a “first image”, and the processing target image shown in the second diagram from the right in FIG. 7 is referred to as a “second image”. The processing target image shown in the rightmost diagram of FIG. 7 is referred to as a “third image”.

このような画像に対し、ステップ202による境界線の抽出では、一例として図8の左端の図に示すように、処理対象画像の周囲の4つの辺から該画像の内側に向かって画素値が「1」から「0」に変化する点を、上記境界線を構成する各点として検出する。なお、この各点を検出する場合、処理対象画像におけるパン44の画像の領域の外側にノイズ画像が含まれている場合には、正確な境界線が得られなくなる。このため、本実施形態に係る検出部12は、境界線の抽出を行うに先立って、2値画像データに対してノイズ除去処理を実行する。なお、ここで適用するノイズ除去処理としては、メディアンフィルタによる方法や、移動平均フィルタによる方法等の従来既知の技術が例示される。   For such an image, when the boundary line is extracted in step 202, as shown in the leftmost diagram of FIG. 8 as an example, the pixel values from the four sides around the processing target image toward the inside of the image are “ Points that change from “1” to “0” are detected as the points constituting the boundary line. When detecting each point, if the noise image is included outside the image area of the pan 44 in the processing target image, an accurate boundary line cannot be obtained. For this reason, the detection unit 12 according to the present embodiment performs a noise removal process on the binary image data before extracting the boundary line. In addition, as a noise removal process applied here, conventionally well-known techniques, such as the method by a median filter, the method by a moving average filter, are illustrated.

この境界線を抽出する処理により、例えば、上記第1画像については図8の左から2番目の図に示す境界線が得られる。同様に、上記第2画像については図8の右から2番目の図に示す境界線が得られ、上記第3画像については図8の右端の図に示す境界線が得られる。   By the process of extracting the boundary line, for example, the boundary line shown in the second diagram from the left in FIG. 8 is obtained for the first image. Similarly, the boundary line shown in the second diagram from the right in FIG. 8 is obtained for the second image, and the boundary line shown in the rightmost diagram of FIG. 8 is obtained for the third image.

次のステップ204において、検出部12は、ステップ202の処理によって得られた境界線に対する外接矩形枠を特定する。この処理により、例えば、上記第1画像については図9の左端の図に示す外接矩形枠が得られる。同様に、上記第2画像については図9の中央の図に示す外接矩形枠が得られ、上記第3画像については図9の右端の図に示す外接矩形枠が得られる。   In the next step 204, the detection unit 12 specifies a circumscribed rectangular frame for the boundary line obtained by the processing in step 202. By this processing, for example, a circumscribed rectangular frame shown in the leftmost diagram of FIG. 9 is obtained for the first image. Similarly, the circumscribed rectangular frame shown in the center diagram of FIG. 9 is obtained for the second image, and the circumscribed rectangular frame shown in the rightmost diagram of FIG. 9 is obtained for the third image.

次のステップ206において、検出部12は、ステップ204の処理によって得られた外接矩形枠から、横列方向及び縦列方向の各方向に対する両端部の位置を検出する。このように、本実施形態では、入荷用番重42に横列方向及び縦列方向の2次元状にパン44が収容可能とされているため、ステップ206では、横列方向及び縦列方向の各方向に対する両端部の位置を検出しているが、これに限定されるものではない。例えば、入荷用番重42が1列分のパン44のみが収容可能とされている場合、ステップ206では、横列方向(パン44の配列方向)のみの両端部の位置を検出すればよい。   In the next step 206, the detection unit 12 detects the positions of both end portions in each of the row direction and the column direction from the circumscribed rectangular frame obtained by the process of step 204. As described above, in this embodiment, since the pan 44 can be accommodated in the two-dimensional shape in the row direction and the column direction in the arrival load 42, in step 206, both ends in each direction in the row direction and the column direction. However, the present invention is not limited to this. For example, when the arrival weight 42 can accommodate only one row of breads 44, in step 206, the positions of both end portions only in the row direction (the arrangement direction of the pans 44) may be detected.

次のステップ208において、導出部13は、ステップ206の処理によって検出された横列方向の両端部の間を、上記上限数に対応する横列方向の最大収容数で均等に分割することにより、横列方向に対する複数の分割領域を導出する。また、導出部13は、ステップ206の処理によって検出された縦列方向の両端部の間を、上記上限数に対応する縦列方向の最大収容数で均等に分割することにより、縦列方向に対する複数の分割領域を導出する。この処理により、例えば、上記第1画像については図9の左端の図に示す分割領域が得られる。同様に、上記第2画像については図9の中央の図に示す分割領域が得られ、上記第3画像については図9の右端の図に示す分割領域が得られる。   In the next step 208, the derivation unit 13 divides the both ends in the row direction detected by the processing in step 206 equally by the maximum accommodation number in the row direction corresponding to the upper limit number, so that the row direction A plurality of divided regions for is derived. Further, the derivation unit 13 divides the both ends in the column direction detected by the processing of step 206 equally by the maximum accommodation number in the column direction corresponding to the upper limit number, thereby dividing the plurality of divisions in the column direction. Deriving a region. By this processing, for example, the divided area shown in the leftmost diagram of FIG. 9 is obtained for the first image. Similarly, for the second image, the divided region shown in the center diagram of FIG. 9 is obtained, and for the third image, the divided region shown in the rightmost diagram of FIG. 9 is obtained.

ところで、例えば上記第1画像や上記第2画像のように、上記境界線の輪郭が概ね矩形状となっている場合は、以上の処理によって得られた分割領域が、パン44の各々が配置されている領域であると概ね推定することができる。しかしながら、上記第3画像のように、上記境界線の輪郭が矩形状ではない形状(例えば、台形状や平行四辺形状等)となっている場合は、以上の処理によって得られた分割領域が、パン44の各々が配置されている領域であると推定することはできない。   By the way, for example, when the outline of the boundary line is substantially rectangular like the first image or the second image, each of the pans 44 is arranged in the divided area obtained by the above processing. It can be roughly estimated that this is a region. However, as in the third image, when the boundary line has a non-rectangular shape (for example, a trapezoidal shape or a parallelogram shape), the divided regions obtained by the above processing are: It cannot be estimated that each of the pans 44 is an area where the pan 44 is disposed.

そこで、本実施形態に係る検出部12は、導出部13によって導出された複数の分割領域のうち、横列方向及び縦列方向の何れか一方の方向(本実施形態では、横列方向)に沿った複数の分割領域群の各々毎の両端部の位置を更に検出する。また、検出部12は、導出部13によって導出された複数の分割領域のうち、横列方向及び縦列方向の何れか他方の方向(本実施形態では、縦列方向)に沿った複数の分割領域群の各々毎の両端部の位置を更に検出する。   Therefore, the detection unit 12 according to the present embodiment includes a plurality of regions along one of the row direction and the column direction (the row direction in the present embodiment) among the plurality of divided regions derived by the deriving unit 13. The positions of both ends of each of the divided region groups are further detected. The detection unit 12 also includes a plurality of divided region groups along the other direction (the column direction in the present embodiment) of the row direction and the column direction among the plurality of divided regions derived by the derivation unit 13. The positions of both ends of each are further detected.

そして、本実施形態に係る導出部13は、検出部12によって検出された、横列方向に沿った複数の分割領域群及び縦列方向に沿った複数の分割領域群の各々の両端部の間を、対応する上限数(最大収容数)で均等に分割することにより、上記複数の分割領域を再度導出する。   And the derivation | leading-out part 13 which concerns on this embodiment is between the both ends of each of the some division area group along the row direction, and the some division area group along the row direction detected by the detection part 12. By dividing equally by the corresponding upper limit number (maximum accommodation number), the plurality of divided regions are derived again.

以上の検出部12及び導出部13の処理のうち、横列方向に沿った分割領域群に対する処理を第1段階として行うことにより、一例として上記第3画像については図10に示すように、横列方向に対する分割領域が調整される。また、第1段階の処理を経た分割領域に対して、以上の検出部12及び導出部13の処理のうち、縦列方向に沿った分割領域群に対する処理を第2段階として行う。これにより、図11に示すように、横列方向に対する分割領域に加えて、縦列方向に対する分割領域が調整される。   Among the processes of the detection unit 12 and the derivation unit 13 described above, by performing the process for the divided region group along the row direction as the first stage, as an example, the third image is shown in the row direction as shown in FIG. The divided area for is adjusted. Moreover, the process with respect to the division area group along a column direction is performed as a 2nd step among the processes of the above detection part 12 and derivation | leading-out part 13 with respect to the division area which passed the process of the 1st step. As a result, as shown in FIG. 11, in addition to the divided areas in the row direction, the divided areas in the column direction are adjusted.

以上の処理によって得られた分割領域は、複数のパン44の各々による配置位置の偏りをも考慮した分割領域となるため、該分割領域がパン44の各々が配置されている領域であると高精度で推定することができる。   The divided area obtained by the above processing is a divided area that also considers the deviation of the arrangement position due to each of the plurality of pans 44. Therefore, if the divided area is an area where each of the pans 44 is arranged, the divided area is high. It can be estimated with accuracy.

次のステップ210において、推定部15は、横列方向及び縦列方向の各々別に、導出部13によって再度導出された複数の分割領域内の中央部の位置をパン44の各々における穴44Aの位置であると推定する。   In the next step 210, the estimating unit 15 determines the position of the central portion in the plurality of divided areas derived again by the deriving unit 13 for each of the row direction and the column direction as the position of the hole 44 </ b> A in each of the pans 44. Estimated.

次のステップ212において、推定部15は、推定したパン44の各々における穴44Aの位置を示す位置情報をメモリ52に記憶する。次のステップ214において、重畳部17は、処理対象画像を示す2値画像データにおける、推定部15により推定された位置に対して、穴44Aをマスクするためのマスクデータを重畳させた後、本正番重処理を終了する。正番重処理が終了すると、図4に示す物体位置認識処理のステップ116に移行する。なお、本実施形態では、マスクデータとして、予め定められたサイズ(直径)の円形状の画像を、2値画像データにおけるパン44の画像と同様の値(本実施形態では、「0」)で形成するデータを用いている。   In the next step 212, the estimation unit 15 stores position information indicating the position of the hole 44 </ b> A in each estimated pan 44 in the memory 52. In the next step 214, the superimposing unit 17 superimposes mask data for masking the hole 44A on the position estimated by the estimating unit 15 in the binary image data indicating the processing target image, The normal number weight processing ends. When the normal weight processing is completed, the routine proceeds to step 116 of the object position recognition processing shown in FIG. In this embodiment, a circular image having a predetermined size (diameter) is used as the mask data with the same value as the pan 44 image in the binary image data (in this embodiment, “0”). The data to be formed is used.

なお、サイズの小さい分割領域に対応するパン44は、圧縮度合いが大きく、穴44Aの直径も、より小さくなっている可能性がある。これを考慮すると、個々の分割領域のサイズに応じてマスクデータのサイズ(円の直径)を変化させてもよい。   Note that the pan 44 corresponding to the small-sized divided region has a high degree of compression, and the diameter of the hole 44A may also be smaller. Considering this, the size of mask data (diameter of the circle) may be changed according to the size of each divided region.

図12には、処理対象画像が上記第1画像〜第3画像である場合において、ステップ214の処理によってマスクされる位置が上記境界線及び分割領域と共に示されている。また、図13の上段には、処理対象画像が上記第1画像〜第3画像である場合において、ステップ214の処理によってマスクされる位置が処理対象画像と共に示されている。更に、図13の下段には、対応する処理対象画像にマスクデータが重畳された後の処理対象画像が示されている。   FIG. 12 shows the positions masked by the process of step 214 together with the boundary lines and the divided areas when the processing target images are the first image to the third image. Further, in the upper part of FIG. 13, the positions masked by the process of step 214 when the processing target images are the first to third images are shown together with the processing target images. Furthermore, the lower part of FIG. 13 shows the processing target image after the mask data is superimposed on the corresponding processing target image.

図12及び図13に示すように、ステップ214のマスクデータの重畳によって、一部のパン44の画像については小さなマスク洩れが見られるものの、殆どのパン44の画像については穴44Aに相当する画像がなくなっている(マスクされている)ことがわかる。なお、ここでいう「マスク洩れ」は、マスクすべき領域(穴44Aの領域)の一部がマスクできていないことを意味する。従って、マスクデータが重畳された後の処理対象画像に対してパン44の位置を認識する物体位置認識を行うことにより、穴44Aの画像の影響を受けない、若しくは穴44Aの画像の影響が低減された認識を行うことができる。この結果、パン44の個々の位置を、より高精度に認識できるようになる。   As shown in FIGS. 12 and 13, the mask data overlap in step 214 shows a small mask leak for some pan 44 images, but the image corresponding to the hole 44 </ b> A for most pan 44 images. It can be seen that is missing (masked). Here, “mask leakage” means that a part of the region to be masked (the region of the hole 44A) cannot be masked. Therefore, by performing object position recognition for recognizing the position of the pan 44 on the processing target image after the mask data is superimposed, the influence of the image of the hole 44A is reduced. Recognition can be performed. As a result, the individual positions of the pan 44 can be recognized with higher accuracy.

一方、図4に示す物体位置認識のステップ108において否定判定となった場合、処理対象番重が端数番重であると見なしてステップ112に移行し、CPU51は、図14に示す端数番重処理を行う。   On the other hand, when a negative determination is made in step 108 of the object position recognition shown in FIG. 4, the processing target weight is regarded as a fraction weight, and the process proceeds to step 112, where the CPU 51 performs the fraction number processing shown in FIG. I do.

端数番重処理のステップ300において、取得部11は、画像データ記憶領域53Bから最新の距離画像データを読み出し、該距離画像データを前述したように2値化して2値画像データを生成する。次のステップ302において、検出部12は、直近に実行した正番重処理のステップ212の処理によって記憶した位置情報を読み出す。   In step 300 of the fraction number processing, the acquisition unit 11 reads the latest distance image data from the image data storage area 53B, binarizes the distance image data as described above, and generates binary image data. In the next step 302, the detection unit 12 reads the position information stored by the processing of step 212 of the positive number processing executed most recently.

次のステップ304において、重畳部17は、ステップ300の処理によって生成した2値画像データに対して、ステップ302の処理によって読み出した位置情報により示される位置に上記マスクデータを重畳させる。   In the next step 304, the superimposing unit 17 superimposes the mask data on the binary image data generated by the process of step 300 at the position indicated by the position information read by the process of step 302.

図15には、ステップ300の処理によって取得した2値画像データにより示される2値画像(処理対象画像)の3種類の例が示されている。   FIG. 15 shows three types of binary images (processing target images) indicated by the binary image data acquired by the processing in step 300.

図15の左端の図は、正番重状態での処理対象画像が上記第1画像である処理対象番重に対して1段目の右半分の2個のパン44がピッキングされた状態の画像(以下、「第4画像」という。)を示す。また、図15の中央の図は、正番重状態での処理対象画像が上記第2画像である処理対象番重に対し、1段目の4個全てと2段目の中央部の2個の合計6個のパン44がピッキングされた状態の画像(以下、「第5画像」という。)を示す。更に、図15の右端の図は、正番重状態での処理対象画像が上記第3画像である処理対象番重に対し、1段目の右側の3個のパン44と、2段目の左半分の2個の合計5個のパン44がピッキングされた状態の画像(以下、「第6画像」という。)を示す。また、図16には、処理対象画像が上記第4画像〜第6画像である場合において、ステップ304の処理によってマスクされる位置が処理対象画像と共に示されている。   The leftmost diagram of FIG. 15 shows an image in a state where two pans 44 in the right half of the first stage are picked with respect to the processing target number which is the first image as the processing target image in the normal number state. (Hereinafter referred to as “fourth image”). Further, the center diagram of FIG. 15 shows that the processing target image in the normal weight state is all four in the first stage and two in the central part of the second stage with respect to the processing target number of the second image. A total of six pans 44 are picked (hereinafter referred to as “fifth image”). Further, the rightmost diagram in FIG. 15 shows the three pans 44 on the right side of the first stage and the second stage of the second stage in relation to the processing target number in which the processing target image in the positive number state is the third image. An image (hereinafter, referred to as a “sixth image”) in which a total of five pans 44 in the left half are picked is shown. FIG. 16 shows the positions masked by the process of step 304 together with the process target image when the process target images are the fourth image to the sixth image.

図16に示すように、ステップ304の処理では、実際にはパン44が存在しない領域までマスクデータが重畳されるため、このままではパン44が存在しない領域で、かつマスクデータが重畳された領域にパン44が位置しているものと誤判定される虞が高い。そこで、次のステップ306において、重畳部17は、ステップ304の処理により行ったマスクデータの配置が妥当であるか否かを、配置したマスクデータ毎に判定する。   As shown in FIG. 16, in the process of step 304, since the mask data is actually superimposed up to the area where the pan 44 does not exist, the area where the pan 44 does not exist and the area where the mask data is superimposed remain as it is. There is a high risk of erroneous determination that the pan 44 is located. Therefore, in the next step 306, the superimposing unit 17 determines whether the arrangement of the mask data performed by the process of step 304 is appropriate for each arranged mask data.

本実施形態では、マスクデータの配置が妥当であるか否かの判定を次のように行う。即ち、配置したマスクデータによるマスクの領域の円周のうち、処理対象画像におけるパン44の画像以外の画像の値(本実施形態では、‘1’)とされている画素(本実施形態では、黒画素)に囲まれている割合が所定値未満である場合に妥当であると判定する。なお、本実施形態では、上記所定値として70%を適用している。従って、例えば、図17に示すように、上記割合が100%及び80%とされている場合は、マスクデータの配置が妥当ではないと判定し、上記割合が60%、20%及び0%(黒画素と全く接していない状態。)の場合は、マスクデータの配置が妥当であると判定する。   In the present embodiment, the determination as to whether the arrangement of the mask data is appropriate is performed as follows. That is, out of the circumference of the mask area based on the arranged mask data, the pixel (in this embodiment, “1” in this embodiment) other than the image of the pan 44 in the processing target image (in this embodiment, When the ratio surrounded by black pixels) is less than a predetermined value, it is determined to be appropriate. In the present embodiment, 70% is applied as the predetermined value. Therefore, for example, as shown in FIG. 17, when the ratio is 100% and 80%, it is determined that the arrangement of the mask data is not valid, and the ratio is 60%, 20%, and 0% ( In the case of no contact with black pixels), it is determined that the arrangement of the mask data is appropriate.

次のステップ308において、重畳部17は、ステップ306の処理によって配置が妥当ではないと判定されたマスクデータを2値画像データから除去し、その後に本端数番重処理を終了する。端数番重処理が終了すると、図4に示すステップ116に移行する。   In the next step 308, the superimposing unit 17 removes the mask data determined to be invalid in the arrangement in step 306 from the binary image data, and thereafter ends the fraction numbering process. When the fraction number processing ends, the process proceeds to step 116 shown in FIG.

図18には、処理対象画像が上記第4画像〜第6画像である場合において、ステップ304〜ステップ308の処理によって最終的にマスクされる位置が処理対象画像と共に示されている。また、図19には、上記第4画像〜第6画像の各処理対象画像にマスクデータが重畳された後の処理対象画像が示されている。なお、図18では、ステップ308の処理によって除去されたマスクデータによるマスクの位置が白い破線で示されている。   FIG. 18 shows the positions to be finally masked together with the processing target image when the processing target images are the fourth to sixth images. FIG. 19 shows the processing target image after mask data is superimposed on the processing target images of the fourth image to the sixth image. In FIG. 18, the position of the mask based on the mask data removed by the processing in step 308 is indicated by a white broken line.

図18及び図19に示すように、上記第4画像〜第6画像は、ステップ304〜ステップ308の処理により、パン44の画像が存在しない領域のマスクデータについては除去され、パン44の画像の領域のみについてマスクデータが重畳された状態となる。この結果、パン44がない領域についてはマスクされず、一部のパン44の画像については小さなマスク洩れが見られるものの、殆どのパン44の画像については穴44Aに相当する画像がなくなっている(マスクされている)ことがわかる。従って、これらの処理対象画像に対してパン44の位置を認識する物体位置認識を行うことにより、穴44Aの画像の影響を受けない、若しくは穴44Aの画像の影響が低減された認識を行うことができる。この結果、パン44の個々の位置を、より高精度に認識できるようになる。   As shown in FIGS. 18 and 19, the fourth to sixth images are removed from the mask data in the area where the pan 44 image does not exist by the processing of step 304 to step 308, and the pan 44 image is removed. The mask data is superimposed on only the area. As a result, an area without the pan 44 is not masked, and a small mask leak is seen in some pan 44 images, but there is no image corresponding to the hole 44A in most pan 44 images ( You can see that it is masked. Accordingly, by performing object position recognition for recognizing the position of the pan 44 for these processing target images, recognition is performed without being affected by the image of the hole 44A or with the influence of the image of the hole 44A being reduced. Can do. As a result, the individual positions of the pan 44 can be recognized with higher accuracy.

一方、図4に示す物体位置認識のステップ106において肯定判定となった場合、処理対象番重が、今回の物体位置認識処理で対象としている入荷用番重42のうちの最後の入荷用番重42(以下、「最終番重」という。)であると見なしてステップ114に移行する。   On the other hand, when an affirmative determination is made in step 106 of the object position recognition shown in FIG. 4, the processing object weight is the last arrival weight of the arrival weight 42 that is the target in the current object position recognition process. 42 (hereinafter referred to as “final weight”), the process proceeds to step 114.

ステップ114において、CPU51は、図20に示す最終番重処理を行う。以下、最終番重処理について説明する。なお、錯綜を回避するため、本実施形態では、最終番重におけるパン44の理想的な配置位置(以下、「最終番重配置位置」という。)が予め設定されている場合について説明する。   In step 114, the CPU 51 performs a final weight process shown in FIG. Hereinafter, the final number processing will be described. In order to avoid complications, the present embodiment will describe a case where an ideal arrangement position of the pan 44 in the final weight (hereinafter referred to as “final weight arrangement position”) is set in advance.

最終番重処理のステップ400において、取得部11は、画像データ記憶領域53Bから最新の距離画像データを読み出し、該距離画像データを前述したように2値化して2値画像データを生成する。次のステップ402において、検出部12は、直近に実行した正番重処理のステップ212の処理によって記憶した位置情報を読み出す。   In step 400 of the final weight processing, the acquisition unit 11 reads the latest distance image data from the image data storage area 53B, binarizes the distance image data as described above, and generates binary image data. In the next step 402, the detection unit 12 reads the position information stored by the processing of step 212 of the positive number processing executed most recently.

次のステップ404において、重畳部17は、ステップ400の処理によって生成した2値画像データに対して、ステップ402の処理によって読み出した位置情報により示される位置に上記マスクデータを重畳させる。   In the next step 404, the superimposing unit 17 superimposes the mask data on the binary image data generated by the process of step 400 at the position indicated by the position information read by the process of step 402.

次のステップ406において、重畳部17は、ステップ404の処理によって配置したマスクデータから、上記最終番重配置位置とは異なる位置に対応するマスクデータを除去し、その後に本最終番重処理を終了する。最終番重処理が終了すると、図4に示す物体位置認識処理のステップ116に移行する。   In the next step 406, the superimposing unit 17 removes the mask data corresponding to the position different from the final number arrangement position from the mask data arranged by the process in step 404, and then ends the final number process. To do. When the final number process is completed, the process proceeds to step 116 of the object position recognition process shown in FIG.

図21は、直近に実行した正番重処理での処理対象画像が上記第3画像である場合における最終番重処理の説明に供する図である。この場合、直近に実行した正番重処理での処理対象画像が図21の左端に示す画像であり、該正番重処理によって、マスクデータが図21の左から2番目の図に示す位置に重畳される。   FIG. 21 is a diagram for explaining the final weight processing when the processing target image in the positive weight processing executed most recently is the third image. In this case, the processing target image in the most recent positive weight processing executed is the image shown at the left end of FIG. 21, and the mask data is moved to the position shown in the second diagram from the left in FIG. Superimposed.

この場合、最終番重処理のステップ400の処理によって取得された2値画像データにより示される処理対象画像は、一例として図21の右から2番目の画像となる。なお、図21の右から2番目の図では、最終番重において、1段目のパン44がなく、2段目〜3段目の合計8個のパン44が収容されている場合について示されている。この場合、最終番重処理のステップ406の処理では、図21の右端の図に示すように、1段目に重畳された全てのマスクデータが除去され、2段目〜3段目に配置したマスクデータが残る。この結果、パン44がない領域についてはマスクされず、一部のパン44の画像については小さなマスク洩れが生じるものの、殆どのパン44の画像については穴44Aに相当する画像がなくなることになる。従って、この処理対象画像に対してパン44の位置を認識する物体位置認識を行うことにより、穴44Aの画像の影響を受けない、若しくは穴44Aの画像の影響が低減された認識を行うことができる。この結果、パン44の個々の位置を、より高精度に認識できるようになる。   In this case, the processing target image indicated by the binary image data acquired by the processing of step 400 of the final weight processing is, for example, the second image from the right in FIG. Note that the second diagram from the right in FIG. 21 shows a case where there is no first-stage pan 44 in the final weight, and a total of eight pans 44 in the second to third stages are accommodated. ing. In this case, in the process of step 406 of the final weight processing, as shown in the rightmost diagram of FIG. 21, all the mask data superimposed on the first stage is removed and arranged on the second to third stages. Mask data remains. As a result, the area without the pan 44 is not masked, and a small mask leak occurs in some pan 44 images, but the image corresponding to the hole 44A is almost absent in the pan 44 images. Therefore, by performing object position recognition for recognizing the position of the pan 44 for this processing target image, recognition can be performed without being affected by the image of the hole 44A or by reducing the effect of the image of the hole 44A. it can. As a result, the individual positions of the pan 44 can be recognized with higher accuracy.

図4に示す物体位置認識処理のステップ116において、認識部18は、以上のステップ110、ステップ112及びステップ114の何れかの処理によってマスクデータが重畳された2値画像データ(以下、「マスク済み画像データ」という。)を用いて、処理対象番重に収容されているパン44の位置を認識する物体位置認識を行う。本実施形態では、上記物体位置認識として、中央部に穴44Aや凹部がないパンの位置を認識する従来既知の物体位置認識を行っている。なお、本実施形態に係る物体位置認識では、マスク済み画像データにより示される処理対象画像の水平方向及び垂直方向の各方向に対する白画素数の累積値を示すヒストグラムを方向別に作成する。そして、水平方向及び垂直方向の各ヒストグラムの谷部が隣接するパン44の間の境界領域として、各パン44の位置を認識する。しかしながら、物体位置認識は、この方法に限定されるものではなく、2値画像データを用いて複数の物体の各々の位置を認識する方法であれば、如何なる方法を適用してもよい。   In step 116 of the object position recognition process shown in FIG. 4, the recognition unit 18 performs binary image data (hereinafter referred to as “masked”) on which the mask data is superimposed by any one of the above steps 110, 112, and 114. Object position recognition that recognizes the position of the pan 44 accommodated in the processing target weight is performed using “image data”. In the present embodiment, as the object position recognition, conventionally known object position recognition for recognizing the position of a pan without a hole 44A or a recess at the center is performed. In the object position recognition according to the present embodiment, a histogram indicating the accumulated value of the number of white pixels in each of the horizontal direction and the vertical direction of the processing target image indicated by the masked image data is created for each direction. Then, the position of each pan 44 is recognized as a boundary region between adjacent pans 44 where the valley portions of the histograms in the horizontal and vertical directions are adjacent. However, the object position recognition is not limited to this method, and any method may be applied as long as the position of each of a plurality of objects is recognized using binary image data.

ところで、物体位置認識では、様々な原因によりパン44の位置を誤認識する場合がある。以下、物体位置認識において誤認識となってしまう原因の具体的な例について説明する。   By the way, in the object position recognition, the position of the pan 44 may be erroneously recognized due to various causes. Hereinafter, a specific example of the cause of erroneous recognition in object position recognition will be described.

例えば、一例として図22の左の図に示すように、マスクデータにより示されるマスクの面積がパン44の穴44Aの画像の面積より小さい場合は、物体位置認識において誤認識してしまうことがある。パン44の画像とマスクデータによる画像との間の領域が隣接するパン44の間の空間であると誤認識する場合があるためである。また、一例として図22の右の図に示すように、マスクデータにより示されるマスクの面積がパン44の画像の面積より大きい場合も、物体位置認識において誤認識してしまうことがある。隣接するパン44の間の空間が識別できなくなる場合があるためである。   For example, as shown in the left diagram of FIG. 22 as an example, when the area of the mask indicated by the mask data is smaller than the area of the image of the hole 44A of the pan 44, the object position may be erroneously recognized. . This is because an area between the image of the pan 44 and the image based on the mask data may be erroneously recognized as a space between the adjacent pans 44. As an example, as shown in the diagram on the right side of FIG. 22, when the area of the mask indicated by the mask data is larger than the area of the image of the pan 44, the object position may be erroneously recognized. This is because the space between adjacent pans 44 may not be identified.

この問題を解決するため、マスクデータにより示されるマスクの大きさを作業者によって指定できるようにしてもよい。この形態の例としては、作業者により、入力部54を介してマスクの大きさを入力するものとし、作業者によって入力部54を介して入力されたマスクの大きさを受付部14により受け付ける形態が例示される。この例では、受付部14によって受け付けたマスクの大きさに応じたマスクデータを重畳部17により生成し、正番重処理、端数番重処理及び最終番重処理において適用する。   In order to solve this problem, the size of the mask indicated by the mask data may be designated by the operator. As an example of this form, it is assumed that the size of the mask is input by the operator via the input unit 54, and the size of the mask input by the worker via the input unit 54 is received by the receiving unit 14. Is exemplified. In this example, mask data corresponding to the size of the mask received by the receiving unit 14 is generated by the superimposing unit 17 and applied in the positive number processing, fraction number processing, and final number processing.

また、物体位置認識において誤認識する原因の具体例として、一例として図23に示すように、入荷用番重42の移動に起因して、横列方向や縦列方向に対して一部のパン44のみ大きく位置ずれを起こした場合も、物体位置認識において誤認識することがある。更に、一例として図24に示すように、直前のピッキングによって一部のパン44のみ位置ずれを起こした場合も、前述した端数番重処理ではマスクデータの数がパン44の数より多くなることがあり、この場合も物体位置認識において誤認識することがある。   Further, as a specific example of the cause of erroneous recognition in the object position recognition, as shown in FIG. 23 as an example, only a part of the pans 44 in the horizontal direction or the vertical direction due to the movement of the arrival weight 42 Even when the position is greatly displaced, the object position may be recognized incorrectly. Further, as shown in FIG. 24 as an example, even when only a part of the pans 44 are displaced due to the immediately preceding picking, the number of mask data may be larger than the number of pans 44 in the above-described fraction number processing. In this case as well, there is a case where the object position is recognized incorrectly.

このような誤認識に或る程度対応するため、本実施形態に係る物体位置認識処理では、ステップ116の物体位置認識において誤認識が発生した場合に、該物体位置認識とは異なり、距離画像データを直接用いた物体位置認識を実行する。   In order to deal with such misrecognition to some extent, in the object position recognition process according to the present embodiment, when an erroneous recognition occurs in the object position recognition in step 116, unlike the object position recognition, the distance image data Object position recognition is performed directly using.

即ち、次のステップ118において、認識部18は、ステップ116の物体位置認識において誤認識が発生したか否かを判定し、否定判定となった場合はステップ120に移行する。なお、本実施形態に係る認識部18は、ステップ118における誤認識が発生したか否かの判定を、認識したパン44の位置の数が想定されるパン44の数とは不一致となるか否かを判定することにより行っている。ここで、上記想定されるパン44の数は、処理対象番重が正番重とされている場合のパン44の数から、それまでに該処理対象番重からピッキングロボット30によってピッキングされたパン44の数を減算すること等により得られる。   That is, in the next step 118, the recognizing unit 18 determines whether or not a misrecognition has occurred in the object position recognition in step 116, and proceeds to step 120 if a negative determination is made. Note that the recognition unit 18 according to the present embodiment determines whether or not the erroneous recognition in step 118 has occurred, whether or not the number of recognized pan 44 positions is inconsistent with the assumed number of pans 44. This is done by judging. Here, the assumed number of pans 44 is the number of pans 44 when the processing target weight is a positive weight, and the number of pans picked by the picking robot 30 from the processing target weight so far. It is obtained by subtracting the number of 44.

ステップ120において、認識部18は、ステップ116の物体位置認識によって認識したパン44の位置を示す位置情報をピッキングロボット30に送信し、その後にステップ132に移行する。なお、物体位置認識装置10から位置情報を受信すると、ピッキングロボット30は、該位置情報が示すパン44の位置に基づいて、処理対象番重からパン44を1つ取り出して出荷用番重48に収容する。   In step 120, the recognition unit 18 transmits position information indicating the position of the pan 44 recognized by the object position recognition in step 116 to the picking robot 30, and then proceeds to step 132. When receiving the position information from the object position recognizing device 10, the picking robot 30 extracts one pan 44 from the processing target weight based on the position of the pan 44 indicated by the position information and sets it to the shipping weight 48. Accommodate.

一方、ステップ118において肯定判定となった場合は、ステップ116の物体位置認識において誤認識が発生したと見なしてステップ122に移行し、取得部11は、画像データ記憶領域53Bから最新の距離画像データを読み出す。また、ステップ122において、検出部12は、直近に実行した正番重処理のステップ212の処理によって記憶した位置情報を読み出す。そして、ステップ122において、重畳部17は、一例として図25に示すように、読み出した距離画像データに対し、次のようにマスクデータを重畳させる。即ち、該距離画像データが示す距離画像の上記位置情報が示す位置を中心として、所定の大きさ(平面視した場合の面積及び高さを含む。)の上面及び下面の面積が異なる円柱状(円錐の上側を水平に切断して除去した形状)を示す距離画像データをマスクデータとして重畳させる。   On the other hand, if an affirmative determination is made in step 118, it is assumed that an erroneous recognition has occurred in the object position recognition in step 116, and the process proceeds to step 122. Is read. Further, in step 122, the detection unit 12 reads the position information stored by the processing of step 212 of the positive number processing executed most recently. In step 122, the superimposing unit 17 superimposes mask data on the read distance image data as follows, as shown in FIG. 25 as an example. That is, with the center of the position indicated by the position information of the distance image indicated by the distance image data as a center, the upper surface and the lower surface of a predetermined size (including the area and height when viewed in plan) have different cylindrical shapes ( Distance image data indicating a shape obtained by cutting and removing the upper side of the cone horizontally is superimposed as mask data.

なお、ここで距離画像データに対して用いるマスクデータにおいても、2値画像データに対して用いるマスクデータと同様に、認識対象とするパンの穴の大きさによっては物体位置認識において誤認識が生じてしまう場合がある。このため、距離画像データに対して用いるマスクデータの大きさも作業者によって指定できるようにしてもよい。   Note that, in the mask data used for the distance image data here, similarly to the mask data used for the binary image data, erroneous recognition occurs in the object position recognition depending on the size of the pan hole to be recognized. May end up. For this reason, the size of the mask data used for the distance image data may be specified by the operator.

次のステップ124において、認識部18は、以上の処理によってマスクデータが重畳された距離画像データを対象として物体位置認識(以下、「第2物体位置認識」という。)を行う。なお、本実施形態に係る第2物体位置認識では、一例として図26に示すように、以下で定義する横方向のヒストグラム及び縦方向のヒストグラムを作成し、各ヒストグラムの谷部が隣接するパン44の間の境界領域として、各パン44の位置を認識する。ここで、横方向のヒストグラムとは、対応する縦方向の位置における、各距離情報を横方向に平均化又は積算することにより得られるものである。また、縦方向のヒストグラムとは、対応する横方向の位置における、各距離情報を縦方向に平均化又は積算することにより得られるものである。なお、ここでは、上記距離情報として、入荷用番重42の底面(パン44の下面と接触する面)を基準として、該底面からの距離を適用している。但し、第2物体位置認識は、この方法に限定されるものではなく、距離画像データを用いて複数の物体の各々の位置を認識する方法であれば、如何なる方法を適用してもよい。   In the next step 124, the recognition unit 18 performs object position recognition (hereinafter referred to as “second object position recognition”) on the distance image data on which the mask data is superimposed by the above processing. In the second object position recognition according to the present embodiment, as shown in FIG. 26 as an example, a horizontal histogram and a vertical histogram defined below are created, and a pan 44 in which valley portions of the histograms are adjacent to each other is created. The position of each pan 44 is recognized as a boundary region between the two. Here, the horizontal histogram is obtained by averaging or integrating each distance information in the corresponding vertical position in the horizontal direction. The vertical histogram is obtained by averaging or integrating each distance information in the corresponding horizontal position in the vertical direction. Here, as the distance information, the distance from the bottom surface is applied on the basis of the bottom surface (the surface in contact with the lower surface of the pan 44) of the arrival weight 42. However, the second object position recognition is not limited to this method, and any method may be applied as long as the position of each of the plurality of objects is recognized using the distance image data.

次のステップ126において、認識部18は、ステップ124の第2物体位置認識において誤認識が発生したか否かを判定し、否定判定となった場合はステップ128に移行する。なお、本実施形態に係る認識部18は、ステップ126における誤認識が発生したか否かの判定も、認識したパン44の位置の数が想定されるパン44の数とは不一致となるか否かを判定することにより行っている。   In the next step 126, the recognizing unit 18 determines whether or not a misrecognition has occurred in the second object position recognition in step 124. If the determination is negative, the process proceeds to step 128. It should be noted that the recognition unit 18 according to the present embodiment also determines whether or not the erroneous recognition in step 126 has occurred, whether or not the number of recognized pan 44 positions is inconsistent with the assumed number of pans 44. This is done by judging.

ステップ128において、認識部18は、ステップ124の第2物体位置認識によって認識したパン44の位置を示す位置情報をピッキングロボット30に送信し、その後にステップ132に移行する。これに応じてピッキングロボット30が1つのパン44のピッキング作業を行うことは、ステップ120の説明において記載した通りである。   In step 128, the recognizing unit 18 transmits position information indicating the position of the pan 44 recognized by the second object position recognition in step 124 to the picking robot 30, and then proceeds to step 132. In response to this, the picking robot 30 performs the picking operation of one pan 44 as described in the description of step 120.

ステップ132において、認識部18は、積層場所40Aに積層されている入荷用番重42の全てのパン44についてピッキングが終了したか否かを判定し、否定判定となった場合はステップ104に戻る。また、ここで肯定判定となった場合には本物体位置認識処理を終了する。   In step 132, the recognizing unit 18 determines whether or not the picking has been completed for all the pans 44 of the incoming load 42 stacked in the stacking place 40A. If the determination is negative, the process returns to step 104. . If the determination is affirmative, the object position recognition process ends.

一方、ステップ126において肯定判定となった場合は、第2物体位置認識において誤認識が発生したと見なしてステップ130に移行し、認識部18は、予め定められたエラー処理を実行した後、本物体位置認識処理を終了する。なお、本実施形態に係る物体位置認識処理では、ステップ130のエラー処理として、誤認識が発生したことを示す情報を表示部55に表示させる処理を適用しているが、これに限定されるものではない。例えば、ブザーを鳴動させるといった、誤認識が発生したことを報知する他の形態を適用してもよい。   On the other hand, if an affirmative determination is made in step 126, it is assumed that erroneous recognition has occurred in the second object position recognition, the process proceeds to step 130, and the recognition unit 18 performs a predetermined error process, The object position recognition process ends. In the object position recognition process according to the present embodiment, a process of displaying information indicating that a misrecognition has occurred on the display unit 55 is applied as the error process of step 130, but is not limited thereto. is not. For example, you may apply the other form which alert | reports that misrecognition generate | occur | produced, such as sounding a buzzer.

以上のように、本実施形態では、中央部に穴を有する物体(パン44)を、所定の配列方向に複数収容できる収容体(入荷用番重42)に、物体が上記配列方向に上限数収容された状態で全ての物体を含む物体群領域を撮影した画像の画像データを取得する。また、本実施形態では、取得した画像データが示す物体群領域の上記配列方向両端部の位置を検出する。また、本実施形態では、検出した両端部の間を上記上限数で均等に分割することにより複数の分割領域を導出する。更に、本実施形態では、導出した複数の分割領域内の上記配列方向中央部の位置を物体の各々における穴の位置と推定する。従って、本実施形態によれば、予期しない物体の偏りや広がり等を考慮して物体の位置を認識することができる結果、中央部に穴を有する複数の物体の各々の位置を高精度に認識することができる。   As described above, in the present embodiment, an upper limit number of objects in the arrangement direction is provided in a container (stock load 42) that can accommodate a plurality of objects (pans 44) having holes in the center in a predetermined arrangement direction. Image data of an image obtained by photographing an object group area including all objects in the accommodated state is acquired. In the present embodiment, the positions of both ends in the arrangement direction of the object group region indicated by the acquired image data are detected. Further, in the present embodiment, a plurality of divided regions are derived by equally dividing the detected both ends with the above upper limit number. Furthermore, in the present embodiment, the position of the central portion in the arrangement direction in the derived plurality of divided regions is estimated as the position of the hole in each of the objects. Therefore, according to the present embodiment, the position of the object can be recognized in consideration of the unexpected bias or spread of the object, and as a result, the position of each of the plurality of objects having a hole in the center is recognized with high accuracy. can do.

特に、本実施形態では、収容体を、物体を上記配列方向として横列方向及び縦列方向の2方向に各々複数収容可能としている。また、本実施形態では、横列方向及び縦列方向の各々別に、物体群領域の上記両端部の位置を検出している。また、本実施形態では、横列方向及び縦列方向の各々別に、検出した両端部の間を、対応する上限数で均等に分割することにより複数の分割領域を導出している。そして、本実施形態では、横列方向及び縦列方向の各々別に、導出した複数の分割領域内の横列方向中央部かつ縦列方向中央部の位置を物体の各々における穴の位置と推定している。従って、本実施形態によれば、収容体に対して平面視2次元状に物体を収容することのできる形態に本発明を適用することができる。   In particular, in this embodiment, a plurality of containers can be accommodated in each of the two directions of the row direction and the column direction with the object as the arrangement direction. In the present embodiment, the positions of both end portions of the object group region are detected for each of the row direction and the column direction. Further, in the present embodiment, a plurality of divided regions are derived by equally dividing the detected both ends by the corresponding upper limit number for each of the row direction and the column direction. In the present embodiment, the positions of the center in the row direction and the center in the column direction in the derived plurality of divided regions are estimated as the positions of the holes in each of the objects for each of the row direction and the column direction. Therefore, according to this embodiment, the present invention can be applied to a form in which an object can be accommodated in a two-dimensional plan view with respect to the container.

特に、本実施形態では、導出した複数の分割領域のうち、横列方向及び縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の上記両端部の位置を更に検出している。また、本実施形態では、導出した複数の分割領域のうち、横列方向及び縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の上記両端部の位置を更に検出している。また、本実施形態では、検出した、横列方向に沿った複数の分割領域群及び縦列方向に沿った複数の分割領域群の各々の両端部の間を、対応する物体の数で均等に分割することにより複数の分割領域を再度導出している。そして、本実施形態では、横列方向及び縦列方向の各々別に、再度導出した複数の分割領域内の横列方向中央部かつ縦列方向中央部の位置を物体の各々における穴の位置と推定している。従って、本実施形態によれば、横列方向及び縦列方向の少なくとも一方の方向に対して一部の物体の位置がずれている場合であっても、複数の物体の各々の位置を高精度に認識することができる。   In particular, in the present embodiment, the positions of the both end portions of each of the plurality of divided region groups along either the row direction or the column direction among the plurality of derived divided regions are further detected. Yes. In the present embodiment, the positions of the both end portions of each of the plurality of divided region groups along the other arrangement direction of the row direction and the column direction are further detected among the derived plurality of divided regions. Yes. Further, in the present embodiment, the detected end portions of the plurality of divided region groups along the row direction and the plurality of divided region groups along the column direction are equally divided by the number of corresponding objects. Thus, a plurality of divided regions are derived again. In the present embodiment, the position of the central portion in the row direction and the central portion in the column direction in the plurality of divided areas derived again is estimated as the position of the hole in each of the objects for each of the row direction and the column direction. Therefore, according to the present embodiment, even when the positions of some objects are shifted with respect to at least one of the row direction and the column direction, the positions of the plurality of objects are recognized with high accuracy. can do.

また、本実施形態では、収容体に収容されている物体の数が上限数より少ない場合、収容体に物体が上記上限数収容されている場合に推定した穴の位置のうち、物体の画像以外の画像に囲まれている割合が所定値未満の位置を、物体の各々の穴の位置と推定している。従って、本実施形態によれば、収容体に収容されている物体の数が上限数より少ない場合であっても、複数の物体の各々の位置を高精度に認識することができる。   Further, in this embodiment, when the number of objects accommodated in the container is less than the upper limit number, out of the positions of the holes estimated when the object is accommodated in the container above the upper limit number other than the object image The position where the ratio surrounded by the images is less than a predetermined value is estimated as the position of each hole of the object. Therefore, according to the present embodiment, the position of each of the plurality of objects can be recognized with high accuracy even when the number of objects accommodated in the container is less than the upper limit number.

また、本実施形態では、撮影によって距離画像データを生成し、該距離画像データに基づいて、物体の領域と他の領域とを区別する2値画像データを上記画像データとして取得している。従って、本実施形態によれば、距離画像データに基づく2値画像データを用いて、複数の物体の各々の位置を高精度に認識することができる。   In the present embodiment, distance image data is generated by photographing, and based on the distance image data, binary image data that distinguishes an object region from other regions is acquired as the image data. Therefore, according to the present embodiment, the position of each of a plurality of objects can be recognized with high accuracy using binary image data based on distance image data.

また、本実施形態では、上記上限数の入力を受け付け、受け付けた上限数を用いて、上記分割領域を導出している。従って、本実施形態によれば、上記上限数が異なる複数種類の収容体を対象とすることができる。   In the present embodiment, the upper limit number is input, and the divided area is derived using the received upper limit number. Therefore, according to this embodiment, a plurality of types of containers having different upper limit numbers can be targeted.

更に、本実施形態では、物体として円環状のものを適用している。従って、本実施形態によれば、円環状の物体を対象として、複数の物体の各々の位置を高精度に認識することができる。   Furthermore, in this embodiment, an annular object is applied as the object. Therefore, according to the present embodiment, the position of each of a plurality of objects can be recognized with high accuracy for an annular object.

なお、上記実施形態では、正番重処理を実行する際に番重が正番重状態(物体が上限数収容された状態)であることを前提としていたが、これに限定されるものではない。番重が正番重に満たない状態であっても、番重内の物体が横列方向及び縦列方向に片寄せされており、かつ物体の数が既知であれば正番重処理は実行可能である。   In the above embodiment, it is assumed that the weight is in the positive weight state (the state in which the upper limit number of objects are accommodated) when executing the positive weight processing. However, the present invention is not limited to this. . Even if the weight is less than the positive weight, if the objects in the weight are offset in the horizontal and vertical directions and the number of objects is known, the positive weight processing can be executed. is there.

また、上記実施形態では、本発明の物体として中央に穴44Aを有するパン44を適用した場合を説明したが、これに限定されるものではない。例えば、ドーナツ、中央部が窪んだパン等の食品の他、タイヤ、ナット、ワッシャ、Oリング等を本発明の物体として適用するようにしてもよい。この場合も、上記実施形態と同様の効果を奏することができる。   Moreover, although the said embodiment demonstrated the case where the pan 44 which has the hole 44A in the center as an object of this invention was applied, it is not limited to this. For example, a tire, a nut, a washer, an O-ring, or the like may be applied as the object of the present invention in addition to a food such as a donut or a bread with a depressed central portion. Also in this case, the same effect as the above embodiment can be obtained.

また、上記実施形態では、入荷用番重42にパン44を2次元状に収容する場合を説明したが、これに限定されるものではない。例えば、入荷用番重42にパン44を1次元状、即ち1列分のみ収容するようにしてもよい。   Moreover, although the said embodiment demonstrated the case where the bread | pan 44 was accommodated in the receiving load 42 in two dimensions, it is not limited to this. For example, the pan 44 may be accommodated in a one-dimensional shape, that is, only for one row in the arrival weight 42.

また、上記実施形態では、正番重処理のステップ208の処理において、図9に示した分割領域の導出を行った後、図10及び図11に示した分割領域の調整を行う場合を説明したが、これに限定されるものではない。例えば、上記第1画像及び第2画像のように、上記境界線の輪郭が概ね矩形状となっている場合等には、上記分割領域の調整を行わないようにしてもよい。   Further, in the above-described embodiment, the case has been described in which the divided areas shown in FIGS. 10 and 11 are adjusted after the divided areas shown in FIG. However, the present invention is not limited to this. For example, when the outline of the boundary line is substantially rectangular like the first image and the second image, the division area may not be adjusted.

また、上記実施形態では、カメラ32として距離画像データを取得するカメラを適用した場合を説明したが、これに限定されるものではない。例えば、カメラ32として市販のカラー画像やモノクロ画像を撮影するカメラを適用してもよい。この場合、カメラ32により、画像データとして複数階調のデータが取得されることになるため、該複数階調のデータを予め定められた閾値で二値化したデータを画像データとして用いる。この場合、カメラ32として、比較的安価なカラー画像やモノクロ画像を撮影するカメラを用いることができるので、物体振り分けシステムを低コストで構築することができる。   Moreover, although the said embodiment demonstrated the case where the camera which acquires distance image data was applied as the camera 32, it is not limited to this. For example, a commercially available camera that captures color images or monochrome images may be applied as the camera 32. In this case, since data of a plurality of gradations is acquired as image data by the camera 32, data obtained by binarizing the data of the plurality of gradations with a predetermined threshold is used as the image data. In this case, since a camera that captures a relatively inexpensive color image or monochrome image can be used as the camera 32, an object distribution system can be constructed at a low cost.

また、上記実施形態では、重畳部17により、推定部15によって推定された位置の全てにマスクデータを重畳させた後に、該マスクデータによるマスクの配置が妥当であるか否かを判定する場合を説明したが、これに限定されるものではない。例えば、重畳部17により、推定部15によって推定された位置の各々についてマスクの配置が妥当であるか否かを予め判定し、妥当であると判定された位置のみにマスクデータを重畳するようにしてもよい。   Moreover, in the said embodiment, after superimposing the mask data on all the positions estimated by the estimation part 15 by the superimposition part 17, it is determined whether the mask arrangement | positioning by this mask data is appropriate. Although described, the present invention is not limited to this. For example, the superimposing unit 17 determines in advance whether or not the mask layout is valid for each of the positions estimated by the estimating unit 15 and superimposes the mask data only on the positions determined to be valid. May be.

また、上記実施形態では、カメラ32をピッキング場所40Bの上方に設け、ピッキング場所40Bに設けられた入荷用番重42からパン44をピッキングロボット30によってピッキングする場合を説明したが、これに限定されるものではない。例えば、カメラ32を積層場所40Aの上方に設け、積層場所40Aに設けられた入荷用番重42からパン44をピッキングロボット30によってピッキングするようにしてもよい。更に、カメラ32を積層場所40A及びピッキング場所40Bの双方の上方に設け、積層場所40A及びピッキング場所40Bの何れかに設けられた入荷用番重42から選択的にパン44をピッキングロボット30によってピッキングするようにしてもよい。   In the above-described embodiment, the case has been described in which the camera 32 is provided above the picking place 40B and the pan 44 is picked by the picking robot 30 from the arrival load 42 provided in the picking place 40B. It is not something. For example, the camera 32 may be provided above the stacking location 40A and the pan 44 may be picked by the picking robot 30 from the receiving load 42 provided in the stacking location 40A. Further, the camera 32 is provided above both the stacking place 40A and the picking place 40B, and the picking robot 30 picks the pan 44 selectively from the incoming load 42 provided in either the stacking place 40A or the picking place 40B. You may make it do.

また、上記実施形態では、物体位置認識プログラム53Aを記憶部53に予め記憶(インストール)しておく態様を説明したが、これに限定されるものではない。例えば、物体位置認識プログラム53Aを、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc ROM)等の記録媒体から媒体読み書き装置を介してコンピュータ50の記憶部53に読み込む形態としてもよく、ネットワークを介して外部装置から記憶部53にダウンロードする形態としてもよい。   Moreover, although the said embodiment demonstrated the aspect which memorize | stores beforehand the object position recognition program 53A in the memory | storage part 53 (installation), it is not limited to this. For example, the object position recognition program 53A is read from a recording medium such as a CD-ROM (Compact Disc Read Only Memory) or a DVD-ROM (Digital Versatile Disc ROM) into the storage unit 53 of the computer 50 via a medium read / write device. Alternatively, it may be downloaded from an external device to the storage unit 53 via a network.

本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。   All documents, patent applications and technical standards mentioned in this specification are to the same extent as if each individual document, patent application and technical standard were specifically and individually stated to be incorporated by reference. Incorporated by reference in the book.

以上の実施形態に関し、更に以下の付記を開示する。   Regarding the above embodiment, the following additional notes are disclosed.

(付記1)
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部と、
前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部と、
前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部と、
前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部と、
を含む推定装置。
(Appendix 1)
An object having a hole or a recess provided in a central portion in a container that can store a plurality of objects in a predetermined arrangement direction intersecting a direction in plan view in a direction in which the hole or recess can be viewed in plan view. An acquisition unit that acquires image data of an image obtained by photographing an object group region including all the objects contained in the container in the state in which the predetermined number is accommodated in the arrangement direction, by an imaging unit;
A detection unit for detecting positions of both ends in the arrangement direction of the object group region indicated by the image data acquired by the acquisition unit;
A derivation unit for deriving a plurality of divided regions by equally dividing the both ends detected by the detection unit by the predetermined number;
An estimation unit that estimates the position of the central portion in the arrangement direction in the plurality of divided regions derived by the deriving unit as the position of the hole or recess in each of the objects;
Including the estimation device.

(付記2)
前記収容体は、前記物体を、前記所定の配列方向として横列方向及び縦列方向の2方向に各々複数収容可能とされ、
前記検出部は、前記横列方向及び前記縦列方向の各々別に、前記物体群領域の前記両端部の位置を検出し、
前記導出部は、前記横列方向及び前記縦列方向の各々別に、前記検出部によって検出された前記両端部の間を、対応する前記所定数で均等に分割することにより複数の分割領域を導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記1記載の推定装置。
(Appendix 2)
The container is capable of accommodating a plurality of the objects in two directions of a row direction and a column direction as the predetermined arrangement direction,
The detection unit detects the positions of the both ends of the object group region separately for each of the row direction and the column direction,
The derivation unit derives a plurality of divided regions by equally dividing the corresponding end portion between the both ends detected by the detection unit for each of the row direction and the column direction,
The estimating unit determines the positions of the center in the row direction and the center in the column direction in the plurality of divided regions derived by the deriving unit for each of the row direction and the column direction in the holes in each of the objects. Or estimate the position of the recess,
The estimation apparatus according to attachment 1.

(付記3)
前記検出部は、前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置、及び前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置を更に検出し、
前記導出部は、前記検出部によって検出された、前記横列方向に沿った複数の分割領域群及び前記縦列方向に沿った複数の分割領域群の各々の前記両端部の間を、対応する前記物体の数で均等に分割することにより前記複数の分割領域を再度導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって再度導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記2記載の推定装置。
(Appendix 3)
The detection unit includes positions of the both end portions for each of a plurality of divided region groups along either the row direction or the column direction among the plurality of divided regions derived by the derivation unit. Further, among the plurality of divided regions derived by the deriving unit, the positions of the both end portions of each of the plurality of divided region groups along the other arrangement direction of the row direction and the column direction are further detected. And
The derivation unit corresponds to the object between the both ends of each of the plurality of divided region groups along the row direction and the plurality of divided region groups along the column direction detected by the detection unit. The plurality of divided regions are derived again by dividing equally by the number of
The estimating unit determines the position of the central part in the row direction and the central part in the column direction in each of the objects in the plurality of divided regions derived again by the deriving unit for each of the row direction and the column direction. Estimate the position of the hole or recess,
The estimation apparatus according to attachment 2.

(付記4)
前記推定部は、前記収容体に収容されている前記物体の数が前記所定数より少ない場合、前記収容体に前記物体が前記所定数収容されている場合に推定した前記穴又は凹部の位置のうち、前記物体の画像以外の画像に囲まれている割合が所定値未満の位置を、前記物体の各々における前記穴又は凹部の位置と推定する、
付記1〜付記3の何れか1項記載の推定装置。
(Appendix 4)
When the number of the objects accommodated in the container is less than the predetermined number, the estimation unit determines the position of the hole or the recess estimated when the predetermined number of the objects are accommodated in the container. Of these, the position surrounded by an image other than the image of the object is less than a predetermined value is estimated as the position of the hole or recess in each of the objects,
The estimation apparatus according to any one of supplementary notes 1 to 3.

(付記5)
前記撮影部は、撮影によって距離画像データを生成するものであり、
前記取得部は、前記距離画像データに基づいて、前記物体の領域と他の領域とを区別する2値画像データを前記画像データとして取得する、
付記1〜付記4の何れか1項記載の推定装置。
(Appendix 5)
The photographing unit generates distance image data by photographing,
The acquisition unit acquires, as the image data, binary image data that distinguishes the region of the object from other regions based on the distance image data.
The estimation apparatus according to any one of supplementary notes 1 to 4.

(付記6)
前記所定数の入力を受け付ける受付部を更に含み、
前記導出部は、前記受付部によって受け付けられた所定数を用いて、前記分割領域を導出する、
付記1〜付記5の何れか1項記載の推定装置。
(Appendix 6)
A reception unit for receiving the predetermined number of inputs;
The deriving unit derives the divided region using a predetermined number received by the receiving unit.
The estimation apparatus according to any one of supplementary notes 1 to 5.

(付記7)
前記物体は、円環状である、
付記1〜付記6の何れか1項記載の推定装置。
(Appendix 7)
The object is annular.
The estimation apparatus according to any one of supplementary notes 1 to 6.

(付記8)
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部と、
前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部と、
前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部と、
前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部と、
前記画像データにおける前記推定部により推定された位置に基づいて、前記穴又は凹部をマスクした前記画像データを用いて前記物体の配置位置を認識する認識部と、
を含む物体位置認識装置。
(Appendix 8)
An object having a hole or a recess provided in a central portion in a container that can store a plurality of objects in a predetermined arrangement direction intersecting a direction in plan view in a direction in which the hole or recess can be viewed in plan view. An acquisition unit that acquires image data of an image obtained by photographing an object group region including all the objects contained in the container in the state in which the predetermined number is accommodated in the arrangement direction, by an imaging unit;
A detection unit for detecting positions of both ends in the arrangement direction of the object group region indicated by the image data acquired by the acquisition unit;
A derivation unit for deriving a plurality of divided regions by equally dividing the both ends detected by the detection unit by the predetermined number;
An estimation unit that estimates the position of the central portion in the arrangement direction in the plurality of divided regions derived by the deriving unit as the position of the hole or recess in each of the objects;
A recognition unit that recognizes an arrangement position of the object using the image data in which the hole or the recess is masked based on the position estimated by the estimation unit in the image data;
An object position recognition apparatus including:

(付記9)
前記収容体は、前記物体を、前記所定の配列方向として横列方向及び縦列方向の2方向に各々複数収容可能とされ、
前記検出部は、前記横列方向及び前記縦列方向の各々別に、前記物体群領域の前記両端部の位置を検出し、
前記導出部は、前記横列方向及び前記縦列方向の各々別に、前記検出部によって検出された前記両端部の間を、対応する前記所定数で均等に分割することにより複数の分割領域を導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記8記載の物体位置認識装置。
(Appendix 9)
The container is capable of accommodating a plurality of the objects in two directions of a row direction and a column direction as the predetermined arrangement direction,
The detection unit detects the positions of the both ends of the object group region separately for each of the row direction and the column direction,
The derivation unit derives a plurality of divided regions by equally dividing the corresponding end portion between the both ends detected by the detection unit for each of the row direction and the column direction,
The estimating unit determines the positions of the center in the row direction and the center in the column direction in the plurality of divided regions derived by the deriving unit for each of the row direction and the column direction in the holes in each of the objects. Or estimate the position of the recess,
The object position recognition apparatus according to appendix 8.

(付記10)
前記検出部は、前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置、及び前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置を更に検出し、
前記導出部は、前記検出部によって検出された、前記横列方向に沿った複数の分割領域群及び前記縦列方向に沿った複数の分割領域群の各々の前記両端部の間を、対応する前記物体の数で均等に分割することにより前記複数の分割領域を再度導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって再度導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記9記載の物体位置認識装置。
(Appendix 10)
The detection unit includes positions of the both end portions for each of a plurality of divided region groups along either the row direction or the column direction among the plurality of divided regions derived by the derivation unit. Further, among the plurality of divided regions derived by the deriving unit, the positions of the both end portions of each of the plurality of divided region groups along the other arrangement direction of the row direction and the column direction are further detected. And
The derivation unit corresponds to the object between the both ends of each of the plurality of divided region groups along the row direction and the plurality of divided region groups along the column direction detected by the detection unit. The plurality of divided regions are derived again by dividing equally by the number of
The estimating unit determines the position of the central part in the row direction and the central part in the column direction in each of the objects in the plurality of divided regions derived again by the deriving unit for each of the row direction and the column direction. Estimate the position of the hole or recess,
The object position recognition apparatus according to appendix 9.

(付記11)
前記推定部は、前記収容体に収容されている前記物体の数が前記所定数より少ない場合、前記収容体に前記物体が前記所定数収容されている場合に推定した前記穴又は凹部の位置のうち、前記物体の画像以外の画像に囲まれている割合が所定値未満の位置を、前記物体の各々における前記穴又は凹部の位置と推定する、
付記8〜付記10の何れか1項記載の物体位置認識装置。
(Appendix 11)
When the number of the objects accommodated in the container is less than the predetermined number, the estimation unit determines the position of the hole or the recess estimated when the predetermined number of the objects are accommodated in the container. Of these, the position surrounded by an image other than the image of the object is less than a predetermined value is estimated as the position of the hole or recess in each of the objects,
The object position recognition apparatus according to any one of appendix 8 to appendix 10.

(付記12)
前記撮影部は、撮影によって距離画像データを生成するものであり、
前記取得部は、前記距離画像データに基づいて、前記物体の領域と他の領域とを区別する2値画像データを前記画像データとして取得する、
付記8〜付記11の何れか1項記載の物体位置認識装置。
(Appendix 12)
The photographing unit generates distance image data by photographing,
The acquisition unit acquires, as the image data, binary image data that distinguishes the region of the object from other regions based on the distance image data.
The object position recognition device according to any one of appendix 8 to appendix 11.

(付記13)
前記所定数の入力を受け付ける受付部を更に含み、
前記導出部は、前記受付部によって受け付けられた所定数を用いて、前記分割領域を導出する、
付記8〜付記12の何れか1項記載の物体位置認識装置。
(Appendix 13)
A reception unit for receiving the predetermined number of inputs;
The deriving unit derives the divided region using a predetermined number received by the receiving unit.
The object position recognition device according to any one of appendix 8 to appendix 12.

(付記14)
前記物体は、円環状である、
付記8〜付記13の何れか1項記載の物体位置認識装置。
(Appendix 14)
The object is annular.
The object position recognition device according to any one of appendix 8 to appendix 13.

(付記15)
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得し、
取得した画像データが示す前記物体群領域の前記配列方向両端部の位置を検出し、
検出した前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出し、
導出した複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
ことを含む処理をコンピュータに実行させるための推定プログラム。
(Appendix 15)
An object having a hole or a recess provided in a central portion in a container that can store a plurality of objects in a predetermined arrangement direction intersecting a direction in plan view in a direction in which the hole or recess can be viewed in plan view. In a state where a predetermined number is accommodated in the arrangement direction, obtain image data of an image obtained by photographing an object group region including all the objects accommodated in the accommodating body by an imaging unit,
Detecting the positions of both ends in the arrangement direction of the object group region indicated by the acquired image data,
Deriving a plurality of divided areas by equally dividing the detected both ends by the predetermined number,
Estimating the position of the central portion in the arrangement direction in the derived plurality of divided regions as the position of the hole or recess in each of the objects,
An estimation program for causing a computer to execute a process including the above.

(付記16)
前記収容体は、前記物体を、前記所定の配列方向として横列方向及び縦列方向の2方向に各々複数収容可能とされ、
前記横列方向及び前記縦列方向の各々別に、前記物体群領域の前記両端部の位置を検出し、
前記横列方向及び前記縦列方向の各々別に、検出した前記両端部の間を、対応する前記所定数で均等に分割することにより複数の分割領域を導出し、
前記横列方向及び前記縦列方向の各々別に、導出した複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記15記載の推定プログラム。
(Appendix 16)
The container is capable of accommodating a plurality of the objects in two directions of a row direction and a column direction as the predetermined arrangement direction,
Detecting the positions of the both ends of the object group region separately for each of the row direction and the column direction,
In each of the row direction and the column direction, a plurality of divided areas are derived by equally dividing the detected end portions by the corresponding predetermined number,
For each of the row direction and the column direction, the position of the center in the row direction and the center in the column direction in the derived plurality of divided regions is estimated as the position of the hole or recess in each of the objects.
The estimation program according to attachment 15.

(付記17)
導出した複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置、及び導出した複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置を更に検出し、
検出した、前記横列方向に沿った複数の分割領域群及び前記縦列方向に沿った複数の分割領域群の各々の前記両端部の間を、対応する前記物体の数で均等に分割することにより前記複数の分割領域を再度導出し、
前記横列方向及び前記縦列方向の各々別に、再度導出した複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記16記載の推定プログラム。
(Appendix 17)
Among the derived plurality of divided regions, the positions of the both end portions of each of the plurality of divided region groups along either the row direction or the column direction, and among the derived plurality of divided regions , Further detecting the positions of the both ends of each of the plurality of divided region groups along the other arrangement direction of the row direction and the column direction,
By dividing equally between the both ends of each of the plurality of divided region groups along the row direction and the plurality of divided region groups along the column direction detected by the number of the corresponding objects. Deriving multiple divided regions again,
For each of the row direction and the column direction, the position of the center in the row direction and the center in the column direction in the plurality of divided regions derived again is estimated as the position of the hole or recess in each of the objects.
The estimation program according to attachment 16.

(付記18)
前記収容体に収容されている前記物体の数が前記所定数より少ない場合、前記収容体に前記物体が前記所定数収容されている場合に推定した前記穴又は凹部の位置のうち、前記物体の画像以外の画像に囲まれている割合が所定値未満の位置を、前記物体の各々における前記穴又は凹部の位置と推定する、
付記15〜付記17の何れか1項記載の推定プログラム。
(Appendix 18)
When the number of the objects accommodated in the container is less than the predetermined number, of the positions of the holes or recesses estimated when the predetermined number of the objects are accommodated in the container Estimating a position surrounded by an image other than an image to be less than a predetermined value as a position of the hole or recess in each of the objects,
The estimation program according to any one of appendix 15 to appendix 17.

(付記19)
前記撮影部は、撮影によって距離画像データを生成するものであり、
前記距離画像データに基づいて、前記物体の領域と他の領域とを区別する2値画像データを前記画像データとして取得する、
付記15〜付記18の何れか1項記載の推定プログラム。
(Appendix 19)
The photographing unit generates distance image data by photographing,
Based on the distance image data, binary image data that distinguishes the region of the object from other regions is acquired as the image data.
The estimation program according to any one of appendix 15 to appendix 18.

(付記20)
前記所定数の入力を受け付け、
受け付けた所定数を用いて、前記分割領域を導出する、
付記15〜付記19の何れか1項記載の推定プログラム。
(Appendix 20)
Accept the predetermined number of inputs,
Deriving the divided region using the received predetermined number,
The estimation program according to any one of appendix 15 to appendix 19.

(付記21)
前記物体は、円環状である、
付記15〜付記20の何れか1項記載の推定プログラム。
(Appendix 21)
The object is annular.
The estimation program according to any one of appendix 15 to appendix 20.

10 物体位置認識装置
11 取得部
12 検出部
13 導出部
14 受付部
15 推定部
17 重畳部
18 認識部
20 推定装置
30 ピッキングロボット
32 カメラ
42 入荷用番重
44 パン
44A 穴
48 出荷用番重
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
53A 物体位置認識プログラム
53A1 取得プロセス
53A2 検出プロセス
53A3 導出プロセス
53A4 受付プロセス
53A5 推定プロセス
53A6 重畳プロセス
53A7 認識プロセス
53B 画像データ記憶領域
54 入力部
55 表示部
90 物体振り分けシステム
DESCRIPTION OF SYMBOLS 10 Object position recognition apparatus 11 Acquisition part 12 Detection part 13 Derivation part 14 Reception part 15 Estimation part 17 Superimposition part 18 Recognition part 20 Estimation apparatus 30 Picking robot 32 Camera 42 Stock weight 44 Pan 44A Hole 48 Ship weight 50 Computer 51 CPU
52 Memory 53 Storage Unit 53A Object Position Recognition Program 53A1 Acquisition Process 53A2 Detection Process 53A3 Derivation Process 53A4 Reception Process 53A5 Estimation Process 53A6 Superimposition Process 53A7 Recognition Process 53B Image Data Storage Area 54 Input Unit 55 Display Unit 90 Object Distribution System

Claims (8)

中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部と、
前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部と、
前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部と、
前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部と、
を含む推定装置。
An object having a hole or a recess provided in a central portion in a container that can store a plurality of objects in a predetermined arrangement direction intersecting a direction in plan view in a direction in which the hole or recess can be viewed in plan view. An acquisition unit that acquires image data of an image obtained by photographing an object group region including all the objects contained in the container in the state in which the predetermined number is accommodated in the arrangement direction, by an imaging unit;
A detection unit for detecting positions of both ends in the arrangement direction of the object group region indicated by the image data acquired by the acquisition unit;
A derivation unit for deriving a plurality of divided regions by equally dividing the both ends detected by the detection unit by the predetermined number;
An estimation unit that estimates the position of the central portion in the arrangement direction in the plurality of divided regions derived by the deriving unit as the position of the hole or recess in each of the objects;
Including the estimation device.
前記収容体は、前記物体を、前記所定の配列方向として横列方向及び縦列方向の2方向に各々複数収容可能とされ、
前記検出部は、前記横列方向及び前記縦列方向の各々別に、前記物体群領域の前記両端部の位置を検出し、
前記導出部は、前記横列方向及び前記縦列方向の各々別に、前記検出部によって検出された前記両端部の間を、対応する前記所定数で均等に分割することにより複数の分割領域を導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
請求項1記載の推定装置。
The container is capable of accommodating a plurality of the objects in two directions of a row direction and a column direction as the predetermined arrangement direction,
The detection unit detects the positions of the both ends of the object group region separately for each of the row direction and the column direction,
The derivation unit derives a plurality of divided regions by equally dividing the corresponding end portion between the both ends detected by the detection unit for each of the row direction and the column direction,
The estimating unit determines the positions of the center in the row direction and the center in the column direction in the plurality of divided regions derived by the deriving unit for each of the row direction and the column direction in the holes in each of the objects. Or estimate the position of the recess,
The estimation apparatus according to claim 1.
前記検出部は、前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置、及び前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置を更に検出し、
前記導出部は、前記検出部によって検出された、前記横列方向に沿った複数の分割領域群及び前記縦列方向に沿った複数の分割領域群の各々の前記両端部の間を、対応する前記物体の数で均等に分割することにより前記複数の分割領域を再度導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって再度導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
請求項2記載の推定装置。
The detection unit includes positions of the both end portions for each of a plurality of divided region groups along either the row direction or the column direction among the plurality of divided regions derived by the derivation unit. Further, among the plurality of divided regions derived by the deriving unit, the positions of the both end portions of each of the plurality of divided region groups along the other arrangement direction of the row direction and the column direction are further detected. And
The derivation unit corresponds to the object between the both ends of each of the plurality of divided region groups along the row direction and the plurality of divided region groups along the column direction detected by the detection unit. The plurality of divided regions are derived again by dividing equally by the number of
The estimating unit determines the position of the central part in the row direction and the central part in the column direction in each of the objects in the plurality of divided regions derived again by the deriving unit for each of the row direction and the column direction. Estimate the position of the hole or recess,
The estimation apparatus according to claim 2.
前記推定部は、前記収容体に収容されている前記物体の数が前記所定数より少ない場合、前記収容体に前記物体が前記所定数収容されている場合に推定した前記穴又は凹部の位置のうち、前記物体の画像以外の画像に囲まれている割合が所定値未満の位置を、前記物体の各々における前記穴又は凹部の位置と推定する、
請求項1〜請求項3の何れか1項記載の推定装置。
When the number of the objects accommodated in the container is less than the predetermined number, the estimation unit determines the position of the hole or the recess estimated when the predetermined number of the objects are accommodated in the container. Of these, the position surrounded by an image other than the image of the object is less than a predetermined value is estimated as the position of the hole or recess in each of the objects,
The estimation apparatus according to any one of claims 1 to 3.
前記撮影部は、撮影によって距離画像データを生成するものであり、
前記取得部は、前記距離画像データに基づいて、前記物体の領域と他の領域とを区別する2値画像データを前記画像データとして取得する、
請求項1〜請求項4の何れか1項記載の推定装置。
The photographing unit generates distance image data by photographing,
The acquisition unit acquires, as the image data, binary image data that distinguishes the region of the object from other regions based on the distance image data.
The estimation apparatus of any one of Claims 1-4.
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部と、
前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部と、
前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部と、
前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部と、
前記画像データにおける前記推定部により推定された位置に基づいて、前記穴又は凹部をマスクした前記画像データを用いて前記物体の配置位置を認識する認識部と、
を含む物体位置認識装置。
An object having a hole or a recess provided in a central portion in a container that can store a plurality of objects in a predetermined arrangement direction intersecting a direction in plan view in a direction in which the hole or recess can be viewed in plan view. An acquisition unit that acquires image data of an image obtained by photographing an object group region including all the objects contained in the container in the state in which the predetermined number is accommodated in the arrangement direction, by an imaging unit;
A detection unit for detecting positions of both ends in the arrangement direction of the object group region indicated by the image data acquired by the acquisition unit;
A derivation unit for deriving a plurality of divided regions by equally dividing the both ends detected by the detection unit by the predetermined number;
An estimation unit that estimates the position of the central portion in the arrangement direction in the plurality of divided regions derived by the deriving unit as the position of the hole or recess in each of the objects;
A recognition unit that recognizes an arrangement position of the object using the image data in which the hole or the recess is masked based on the position estimated by the estimation unit in the image data;
An object position recognition apparatus including:
前記推定部によって推定された位置で、かつマスクすることが妥当であると判定した位置に予め定められたマスクデータによりマスクする重畳部を更に含み、
前記認識部は、前記重畳部によって前記穴又は凹部がマスクされた前記画像データを用いて前記物体の配置位置を認識する、
請求項6記載の物体位置認識装置。
And further includes a superimposing unit that masks with a predetermined mask data at a position estimated by the estimating unit and determined to be appropriate for masking,
The recognizing unit recognizes an arrangement position of the object using the image data in which the hole or the concave portion is masked by the superimposing unit;
The object position recognition apparatus according to claim 6.
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得し、
取得した画像データが示す前記物体群領域の前記配列方向両端部の位置を検出し、
検出した前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出し、
導出した複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
ことを含む処理をコンピュータに実行させるための推定プログラム。
An object having a hole or a recess provided in a central portion in a container that can store a plurality of objects in a predetermined arrangement direction intersecting a direction in plan view in a direction in which the hole or recess can be viewed in plan view. In a state where a predetermined number is accommodated in the arrangement direction, obtain image data of an image obtained by photographing an object group region including all the objects accommodated in the accommodating body by an imaging unit,
Detecting the positions of both ends in the arrangement direction of the object group region indicated by the acquired image data,
Deriving a plurality of divided areas by equally dividing the detected both ends by the predetermined number,
Estimating the position of the central portion in the arrangement direction in the derived plurality of divided regions as the position of the hole or recess in each of the objects,
An estimation program for causing a computer to execute a process including the above.
JP2015176016A 2015-09-07 2015-09-07 Estimation device, object position recognition device and estimation program Active JP6523883B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015176016A JP6523883B2 (en) 2015-09-07 2015-09-07 Estimation device, object position recognition device and estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015176016A JP6523883B2 (en) 2015-09-07 2015-09-07 Estimation device, object position recognition device and estimation program

Publications (2)

Publication Number Publication Date
JP2017054199A true JP2017054199A (en) 2017-03-16
JP6523883B2 JP6523883B2 (en) 2019-06-05

Family

ID=58316575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015176016A Active JP6523883B2 (en) 2015-09-07 2015-09-07 Estimation device, object position recognition device and estimation program

Country Status (1)

Country Link
JP (1) JP6523883B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156531A (en) * 2017-03-21 2018-10-04 株式会社富士通アドバンストエンジニアリング Object detection method, object detection program and object detector

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073452A (en) * 2011-09-28 2013-04-22 Nihon Yamamura Glass Co Ltd Boxed article inspection method and boxed article inspection device
JP2014229154A (en) * 2013-05-24 2014-12-08 株式会社ブレイン Article identification system and program for the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013073452A (en) * 2011-09-28 2013-04-22 Nihon Yamamura Glass Co Ltd Boxed article inspection method and boxed article inspection device
JP2014229154A (en) * 2013-05-24 2014-12-08 株式会社ブレイン Article identification system and program for the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156531A (en) * 2017-03-21 2018-10-04 株式会社富士通アドバンストエンジニアリング Object detection method, object detection program and object detector

Also Published As

Publication number Publication date
JP6523883B2 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
CN109360203B (en) Image registration method, image registration device and storage medium
EP2915596B1 (en) Delivery sorting processing system
TWI729995B (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
CN109584307B (en) System and method for improving calibration of intrinsic parameters of a camera
EP2713314A2 (en) Image processing device and image processing method
US9224198B2 (en) Analysis of the digital image of the surface of a tyre and processing of non-measurement points
CN105865329B (en) The acquisition system and method for the bundled round steel end face center coordinate of view-based access control model
CN105049701A (en) Image processing method and image capturing apparatus
US20230410321A1 (en) Information processing apparatus, control method, and program
CN110035281B (en) Dead pixel detection method and device and electronic equipment
US20180047184A1 (en) Image processing apparatus for processing images captured by a plurality of imaging units, image processing method, and storage medium storing program therefor
CN108154506A (en) A kind of hex nut automatic testing method
CN103824275A (en) System and method for finding saddle point-like structures in an image and determining information from the same
CN110288619B (en) Vision-based sunflower module surface screw hole position detection method
US20170125271A1 (en) Position detection apparatus, position detection method, information processing program, and storage medium
KR101583423B1 (en) Method for calibrating distortion of image in camera
US9628659B2 (en) Method and apparatus for inspecting an object employing machine vision
JP5950317B1 (en) Code recognition system, code recognition method, code recognition program, and package sorting system
JP2017054199A (en) Estimation apparatus, object position recognition apparatus, and estimation program
US9454808B2 (en) Pattern processing apparatus, pattern processing method, and pattern processing program
CN102024264A (en) Dimensional-histogram-statistic-based touch pen color recognition method
US20200074685A1 (en) System and method for representing and displaying color accuracy in pattern matching by a vision system
JP2014191685A (en) Image processing apparatus and image processing method
CN111242963A (en) Container contour detection method and device
JP4634250B2 (en) Image recognition method and apparatus for rectangular parts

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190426

R150 Certificate of patent or registration of utility model

Ref document number: 6523883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350