JP6523883B2 - Estimation device, object position recognition device and estimation program - Google Patents

Estimation device, object position recognition device and estimation program Download PDF

Info

Publication number
JP6523883B2
JP6523883B2 JP2015176016A JP2015176016A JP6523883B2 JP 6523883 B2 JP6523883 B2 JP 6523883B2 JP 2015176016 A JP2015176016 A JP 2015176016A JP 2015176016 A JP2015176016 A JP 2015176016A JP 6523883 B2 JP6523883 B2 JP 6523883B2
Authority
JP
Japan
Prior art keywords
unit
image data
objects
image
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015176016A
Other languages
Japanese (ja)
Other versions
JP2017054199A (en
Inventor
隆也 角森
隆也 角森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Advanced Engineering Ltd
Original Assignee
Fujitsu Advanced Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Advanced Engineering Ltd filed Critical Fujitsu Advanced Engineering Ltd
Priority to JP2015176016A priority Critical patent/JP6523883B2/en
Publication of JP2017054199A publication Critical patent/JP2017054199A/en
Application granted granted Critical
Publication of JP6523883B2 publication Critical patent/JP6523883B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、推定装置、物体位置認識装置及び推定プログラムに関する。   The present invention relates to an estimation device, an object position recognition device, and an estimation program.

従来、物体をカメラで撮影して得られた画像データを2値化して得られた2値画像データを用いて上記物体を検査する技術として、物体表面に施された刻印をカメラで撮影し、得られた画像を処理することで刻印の形状を検査する技術があった。   Conventionally, as a technique for inspecting the object using binary image data obtained by binarizing image data obtained by photographing the object with a camera, a camera is used to photograph an imprint made on the surface of the object, There has been a technique for inspecting the shape of the stamp by processing the obtained image.

この技術では、カメラで撮影された入力画像に対し、刻印部分をマスキングして背景部分の輝度分布を求め、該輝度分布に基づいて2値化処理の閾値を設定する。そして、この技術では、設定した閾値により入力画像に対して2値化処理を施し、これによって得られた明と暗の2値画像データを利用して刻印形状の良否を判定する。   In this technique, for the input image captured by the camera, the engraved portion is masked to obtain the luminance distribution of the background portion, and the threshold of the binarization process is set based on the luminance distribution. Then, in this technology, binarization processing is performed on the input image based on the set threshold value, and the quality of the marking shape is determined using the bright and dark binary image data obtained by this.

特開2006−118895号公報JP, 2006-118895, A

ところで、複数の物体が収容体に収容された状態において、該収容体から各物体をロボットによって取り出したい場合がある。例えば、製パン工場から多数のパンを入荷し、コンビニエンス・ストアやスーパー・マーケット等の店舗向けに、店舗毎に要求された数ずつパンを振り分けて配送する配送センタの事例が挙げられる。即ち、上記配送センタにおいて、製パン工場から入荷された入荷用の番重からパンをピッキングロボットにより1つずつ取り出して、最終的に各店舗から要求された数のパンを店舗毎に出荷用の番重に収容したい場合等である。   By the way, in the state where a plurality of objects are accommodated in a container, there are cases where it is desired to take out each object from the container by a robot. For example, there is a case of a delivery center which receives a large number of breads from a baking factory and distributes and delivers the required number of breads for each store to convenience stores and supermarkets and other stores. That is, at the delivery center, the bread is taken out one by one from the order number for arrival received from the baking factory by the picking robot, and finally the number of bread requested from each store is shipped for each store It is when you want to store in a stack.

この場合、収容体における個々の物体の位置を認識する必要があり、この技術として、該複数の物体に対する撮影によって得られた画像データを用いて、個々の物体の位置を認識する技術が考えられる。   In this case, it is necessary to recognize the position of each object in the container, and as this technique, a technique to recognize the position of each object using image data obtained by photographing the plurality of objects can be considered. .

しかしながら、この技術では、中央部に環状、矩形状等の各種形状の穴又は凹部を有する複数の物体の各々の位置を正確に認識することは困難であった。該穴又は凹部の領域と、各物体の間の隙間の領域とが区別し難いためである。なお、中央部に穴又は凹部を有する物体としては、上述した製パン工場において製造される円環状(ドーナツ状)のパンや、ドーナツ、中央部が窪んだパン等の食品の他、タイヤ、ナット等の環状の部材等が例示される。   However, with this technique, it has been difficult to accurately recognize the position of each of a plurality of objects having holes or recesses of various shapes such as an annular shape and a rectangular shape in the center. This is because it is difficult to distinguish the area of the hole or the recess and the area of the gap between the objects. In addition, as an object having a hole or a recess in the central part, in addition to food products such as annular (donut-like) bread manufactured in the above-described baking factory, donuts, bread in which the central part is recessed, etc., tires, nuts And annular members, etc. are exemplified.

この問題を解決するために、上記従来の技術を利用して、物体の画像に対して該物体の穴又は凹部に対応する位置をマスキングして各物体の位置を認識することも考えられる。しかしながら、この場合、何らかの原因で各物体の位置が、想定される位置からずれた場合には、正確な位置にマスキングを行うことができず、この結果として各物体の位置の認識精度が著しく低下する。   In order to solve this problem, it is also conceivable to recognize the position of each object by masking the position corresponding to the hole or recess of the object with respect to the image of the object using the above-mentioned conventional technique. However, in this case, if the position of each object deviates from the expected position for some reason, the accurate position can not be masked, and as a result, the recognition accuracy of the position of each object is significantly reduced. Do.

なお、以上の問題は、複数の物体が収容体に収容された状態において、該収容体から各物体をロボットによって取り出したい場合に限らず、他の複数の物体の位置を認識する用途においては生じ得る問題である。   The above problems occur not only in the case where it is desired to take out each object from the container by the robot in a state in which the plurality of objects are accommodated in the container, but also occurs in applications in which the positions of other objects are recognized. It is a problem to gain.

本発明は、一つの側面として、中央部に穴又は凹部を有する複数の物体の各々の位置を高精度に認識できるようにすることが目的である。   An object of the present invention is to enable the position of each of a plurality of objects having a hole or a recess in the center to be recognized with high accuracy as one aspect.

1つの態様では、収容体に、中央部に穴又は凹部が設けられた物体が、平面視の方向と交差する所定の配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部を備える。ここで、前記収容体は、前記物体を、平面視で前記穴又は凹部が視認可能な向きで、前記配列方向に複数収容できるものとされている。また、前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部を備える。また、前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部を備える。また、前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部を備える。   In one aspect, all the objects accommodated in the container in a state in which a predetermined number of objects having holes or recesses provided at the central portion in the container are accommodated in a predetermined arrangement direction intersecting the direction of plan view And an acquisition unit configured to acquire image data of an image obtained by photographing an object group region including the objects of Here, the container is configured to be capable of accommodating a plurality of the objects in the arrangement direction in a direction in which the holes or the recesses can be visually recognized in a plan view. The image processing apparatus further includes a detection unit that detects the positions of both ends in the arrangement direction of the object group region indicated by the image data acquired by the acquisition unit. Further, a deriving unit is provided which derives a plurality of divided areas by equally dividing the distance between the both ends detected by the detection unit by the predetermined number. Further, an estimation unit is provided which estimates the position of the central portion in the arrangement direction in the plurality of divided regions derived by the derivation unit as the position of the hole or the recess in each of the objects.

一つの側面として、中央部に穴又は凹部を有する複数の物体の各々の位置を高精度に認識することができる、という効果を有する。   As one aspect, the position of each of a plurality of objects having a hole or a recess in the center can be recognized with high accuracy.

実施形態に係る物体振り分けシステムの構成の一例を示す平面図(一部ブロック図)である。It is a top view (partial block diagram) which shows an example of a structure of the object distribution system which concerns on embodiment. 実施形態に係る物体位置認識装置の機能ブロック図である。It is a functional block diagram of an object position recognition device concerning an embodiment. 実施形態に係るコンピュータの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a computer concerning an embodiment. 実施形態に係る物体位置認識処理の一例を示すフローチャートである。It is a flow chart which shows an example of object position recognition processing concerning an embodiment. 実施形態に係る初期情報入力画面の一例を示す概略図である。It is a schematic diagram showing an example of the initial information input screen concerning an embodiment. 実施形態に係る正番重処理の一例を示すフローチャートである。It is a flow chart which shows an example of the order number processing concerning a embodiment. 実施形態に係る正番重処理の説明に供する図であり、正番重の2値画像データが示す2値画像の例を示す図である。FIG. 8 is a diagram provided for explaining the regular number stacking process according to the embodiment, and is a diagram showing an example of a binary image indicated by binary number data of the regular number double. 実施形態に係る正番重処理の説明に供する図であり、境界線の抽出方法の説明に供する図である。It is a figure which is provided to the explanation of the regular stacking processing which concerns on embodiment, and is a figure which is provided to the explanation of the extraction method of a boundary. 実施形態に係る正番重処理の説明に供する図であり、外接矩形枠及び分割領域の例を示す図である。It is a figure which is provided to the explanation of the regular stacking process concerning an embodiment, and is a figure showing the example of a circumscribed rectangle frame and a division field. 実施形態に係る正番重処理の説明に供する図であり、横列方向の分割領域の調整の説明に供する図である。FIG. 8 is a diagram provided for explanation of regular number stacking processing according to the embodiment, and is a diagram provided for explanation of adjustment of divided regions in the row direction; 実施形態に係る正番重処理の説明に供する図であり、縦列方向の分割領域の調整の説明に供する図である。FIG. 8 is a diagram provided for explanation of regular number stacking processing according to the embodiment, and is a diagram provided for explanation of adjustment of divided regions in the column direction; 実施形態に係る正番重処理の説明に供する図であり、マスクデータの配置位置の例を示す図である。FIG. 8 is a diagram provided for explanation of regular stacking processing according to the embodiment, and showing an example of an arrangement position of mask data. 実施形態に係る正番重処理の説明に供する図であり、マスクデータの重畳の状態及びマスクデータの重畳後の2値画像データの例を示す図である。FIG. 8 is a diagram for explaining regular stacking processing according to the embodiment, and showing a state of mask data superposition and an example of binary image data after superposition of mask data; FIG. 実施形態に係る端数番重処理の一例を示すフローチャートである。It is a flow chart which shows an example of round number processing concerning a embodiment. 実施形態に係る端数番重処理の説明に供する図であり、端数番重の2値画像データが示す2値画像の例を示す図である。FIG. 7 is a diagram for explaining the round numbering process according to the embodiment, and is a view showing an example of a binary image indicated by the binary number data of the round number double. 実施形態に係る端数番重処理の説明に供する図であり、マスクデータの仮の配置位置の例を示す図である。It is a figure which is provided to the explanation of the round and square processing according to the embodiment, and shows the example of the temporary arrangement position of the mask data. 実施形態に係る端数番重処理の説明に供する図であり、不要なマスクデータの除去方法の説明に供する図である。It is a figure which is provided to the explanation of the fraction serial processing which concerns on embodiment, and is a figure which is provided to the explanation of the unnecessary mask data removal method. 実施形態に係る端数番重処理の説明に供する図であり、不要なマスクデータを除去した状態の例を示す図である。It is a figure which is provided for explanation of the round and square processing according to the embodiment, and shows an example of a state in which unnecessary mask data is removed. 実施形態に係る端数番重処理の説明に供する図であり、マスクデータの重畳後の2値画像データの例を示す図である。It is a figure which is provided for explanation of the round numbering process concerning an embodiment, and is a figure showing an example of binary image data after superposition of mask data. 実施形態に係る最終番重処理の一例を示すフローチャートである。It is a flowchart which shows an example of the final stacking process which concerns on embodiment. 実施形態に係る最終番重処理の説明に供する図である。It is a figure where it uses for explanation of the last loading process concerning an embodiment. 実施形態に係る物体位置の誤認識の説明に供する図である。It is a figure where it uses for description of the misrecognition of the object position which concerns on embodiment. 実施形態に係る物体位置の誤認識の説明に供する図である。It is a figure where it uses for description of the misrecognition of the object position which concerns on embodiment. 実施形態に係る物体位置の誤認識の説明に供する図である。It is a figure where it uses for description of the misrecognition of the object position which concerns on embodiment. 実施形態に係る第2物体位置認識の説明に供する図である。It is a figure where it uses for explanation of the 2nd object position recognition concerning an embodiment. 実施形態に係る第2物体位置認識の説明に供する図である。It is a figure where it uses for explanation of the 2nd object position recognition concerning an embodiment.

以下、図面を参照して、本発明の実施形態の一例を詳細に説明する。なお、本実施形態では、本発明を、製パン工場から多数のパン(本発明の「物体」に相当。)を、入荷用番重に収容された状態で入荷し、複数の店舗向けに、店舗毎に要求された数ずつパンを振り分けて配送する配送センタに適用した場合について説明する。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. In the present embodiment, the present invention is received from a bread factory in a state in which a large number of breads (corresponding to the "object" of the present invention) are accommodated in a receiving number, and for a plurality of shops. The case where it applies to the delivery center which distributes and distributes bread by the number requested for every store is explained.

図1には、本実施形態に係る配送センタにおいてパンを振り分ける物体振り分けシステム90の全体的な構成の一例を示す平面図(一部ブロック図)が示されている。   FIG. 1 is a plan view (partial block diagram) showing an example of the overall configuration of an object sorting system 90 for sorting pans in a delivery center according to the present embodiment.

図1に示すように、本実施形態に係る物体振り分けシステム90は、物体位置認識装置10、ピッキングロボット30、距離画像カメラ(以下、単に「カメラ」という。)32、テーブル40及びベルトコンベア46が備えられている。   As shown in FIG. 1, in the object distribution system 90 according to the present embodiment, an object position recognition device 10, a picking robot 30, a distance image camera (hereinafter simply referred to as "camera") 32, a table 40 and a belt conveyor 46 It is equipped.

ベルトコンベア46は、製パン工場から入荷したパン44を各店舗に向けて必要数ずつ配送するべく、各店舗から要求された数のパン44を収容する出荷用番重48を載せて所定方向(本実施形態では、図1の矢印D方向)に移動搬送する。なお、本実施形態では、パン44として中央部に貫通穴(以下、単に「穴」という。)44Aが空けられたドーナツ状のパンを適用しているが、これに限定されるものではなく、例えば、中央部に凹部が形成されたパン等を適用してもよい。   In order to deliver the required number of breads 44 received from the baker's factory to each store, the belt conveyor 46 carries a shipping weight 48 for storing the required number of breads 44 from each store in a predetermined direction ( In this embodiment, the sheet is moved and conveyed in the direction of arrow D in FIG. In the present embodiment, a doughnut-shaped bread in which a through hole (hereinafter simply referred to as a "hole") 44A is opened in the center as the bread 44 is applied, but the present invention is not limited to this. For example, a pan or the like in which a recess is formed in the central portion may be applied.

一方、テーブル40は、一端部側(図1の下側)が、各々複数のパン44が収容された複数の入荷用番重42が積み重ねられる場所(以下、「積層場所」という。)40Aとされている。また、テーブル40は、中間部が、積層場所40Aに積み重ねられた複数の入荷用番重42から個々の入荷用番重42が1つずつ移動されて、該入荷用番重42からパン44が取り出される場所(以下、「ピッキング場所」という。)40Bとされている。また、テーブル40は、上記一端部側とは反対側の他端部側(図1の上側)が、ベルトコンベア46の中間部に近接する位置に位置決めされている。そして、テーブル40の他端部側にピッキングロボット30が設置されている。ピッキングロボット30は、ピッキング場所40Bに移動された入荷用番重42内からパン44を取り出し、ベルトコンベア46によって搬送されてきた出荷用番重48内に収容する。   On the other hand, in the table 40, one end side (the lower side in FIG. 1) is a place (hereinafter referred to as a "stacking place") 40A where a plurality of receiving bunds 42 containing a plurality of pans 44 are stacked. It is done. Further, in the table 40, the intermediate portion is moved one by one from the plurality of incoming shipment weights 42 stacked one by one from the plurality of incoming shipment weights 42 stacked in the stacking place 40A, and the bread 44 from the incoming shipment weights 42. A place to be taken out (hereinafter referred to as "picking place") 40B. The table 40 is positioned so that the other end side (upper side in FIG. 1) opposite to the one end side approaches the intermediate portion of the belt conveyor 46. The picking robot 30 is installed on the other end side of the table 40. The picking robot 30 takes out the pan 44 from the inside of the receiving sheave 42 moved to the picking place 40 B, and accommodates it in the shipping sheave 48 transported by the belt conveyor 46.

本実施形態に係る物体振り分けシステム90では、テーブル40の積層場所40Aに、収容可能な上限数のパン44が収容された番重である正番重とされた入荷用番重42を積み重ねる。なお、本実施形態に係る物体振り分けシステム90では、製パン工場からの入荷数に応じて端数となるパン44が収容された番重である端数番重がある場合、該端数番重とされた入荷用番重42を積層場所40Aの最上層に積み重ねる。そして、本実施形態に係る物体振り分けシステム90では、積層場所40Aに積み重ねられた複数の入荷用番重42を、最下層の入荷用番重42からピッキング場所40Bに1つずつ順次移動させる。   In the object sorting system 90 according to the present embodiment, the stocking bundling 42, which is a regular weight, in which the upper limit number of pans 44 that can be accommodated is accommodated is stacked at the stacking location 40A of the table 40. In the object sorting system 90 according to the present embodiment, if there is a fractional weight which is a number with which the bread 44 serving as a fraction is accommodated according to the number of articles received from the baking factory, the fractional weight is determined. Stacking bunks 42 are stacked on the top layer of the stacking station 40A. Then, in the object distribution system 90 according to the present embodiment, the plurality of receiving sheaves 42 stacked in the stacking place 40A are sequentially moved one by one from the receiving shelving pile 42 of the lowermost layer to the picking place 40B.

なお、本実施形態に係る物体振り分けシステム90では、テーブル40の積層場所40Aに入荷用番重42を積み重ねる第1工程を配送センタの作業員(以下、単に「作業員」という。)が行うものとされている。また、本実施形態に係る物体振り分けシステム90では、積層場所40Aからピッキング場所40Bに入荷用番重42を移動させる第2工程を、図示しない移動機構によって自動的に順次行うものとされている。さらに、本実施形態に係る物体振り分けシステム90では、ピッキングロボット30によって全てのパン44が振り分けられ、空になった入荷用番重42をピッキング場所40Bから除去する第3工程を作業員が行うものとされている。しかしながら、これらの第1工程及び第3工程の各工程は、作業員によって行われる形態に限定されるものではない。これらの工程を、搬送用ロボットや移動機構等によって自動的に行う形態としてもよい。また、第2工程についても移動機構等によって自動的に行う形態に限らず、作業員が手作業で行う形態としてもよい。   In the object distribution system 90 according to the present embodiment, the first process of stacking the arrival number 42 in the stacking area 40A of the table 40 is performed by a worker of the delivery center (hereinafter simply referred to as "worker"). It is assumed. Further, in the object distribution system 90 according to the present embodiment, the second process of moving the arrival number 42 from the stacking place 40A to the picking place 40B is automatically and sequentially performed by a moving mechanism (not shown). Furthermore, in the object sorting system 90 according to the present embodiment, the worker performs the third step of removing all the received bundling weights 42 from the picking place 40B after all the pans 44 are sorted by the picking robot 30. It is assumed. However, each process of these 1st processes and 3rd processes is not limited to the form performed by the worker. These steps may be performed automatically by a transfer robot, a moving mechanism, or the like. Further, the second step is not limited to the mode automatically performed by the moving mechanism or the like, and may be manually performed by an operator.

一方、本実施形態に係る物体位置認識装置10は推定装置20を有している。本実施形態に係る推定装置20は、ピッキング場所40Bに設けられた入荷用番重42に収容されているパン44の個々の穴44Aの位置を推定する。そして、本実施形態に係る物体位置認識装置10は、推定装置20によって推定されたパン44の個々の穴44Aの位置等に基づいて、入荷用番重42におけるパン44の個々の位置を認識する。   On the other hand, the object position recognition device 10 according to the present embodiment has an estimation device 20. The estimation device 20 according to the present embodiment estimates the positions of the individual holes 44A of the pan 44 contained in the arrival number 42 provided at the picking place 40B. Then, the object position recognition apparatus 10 according to the present embodiment recognizes the individual positions of the pan 44 in the arrival number 42 based on the positions, etc. of the individual holes 44A of the pan 44 estimated by the estimation apparatus 20. .

図1に示すように、物体位置認識装置10には、ピッキングロボット30及びカメラ32が接続されている。本実施形態に係るカメラ32は、ピッキング場所40Bの上方に設けられて、撮影方向が下方側へ向けられており、ピッキング場所40Bに設けられた入荷用番重42の配置領域の全域における距離画像データを取得する。ここで、距離画像データとは、画像データの各画素の値が、カメラ32による撮影画角内における画素毎の被写体までの距離を示すデータであり、カメラ32の一例としては、米国マイクロソフト社製のキネクト(Kinect(登録商標))が例示される。   As shown in FIG. 1, a picking robot 30 and a camera 32 are connected to the object position recognition apparatus 10. The camera 32 according to the present embodiment is provided above the picking place 40B, the imaging direction is directed downward, and the distance image in the entire area of the placement area of the stocking bundling 42 provided at the picking place 40B. Get data Here, the distance image data is data in which the value of each pixel of the image data indicates the distance to the subject for each pixel in the shooting angle of view by the camera 32, and an example of the camera 32 is Kinect (Kinect (registered trademark)) is exemplified.

このように、本実施形態では、カメラ32として距離画像カメラを適用した場合について記載するが、これに限定されるものではない。例えば、市販のカラー画像やモノクロ画像を撮影するカメラをカメラ32として適用する形態としてもよい。   Thus, in this embodiment, although the case where a distance image camera is applied as camera 32 is described, it is not limited to this. For example, a commercially available camera for capturing a color image or a monochrome image may be applied as the camera 32.

本実施形態に係る推定装置20は、カメラ32によって得られた距離画像データにおける、パン44の高さ方向の上端部から中央部までの範囲の距離を示す画素を「0」(白)とし、他の画素を「1」(黒)とすることにより2値画像データを生成する。この距離画像データの2値化によって、パン44の画像領域と、他の画像領域とを、異なる値で区分することができる。なお、本実施形態では、以上のように、パン44の画像領域を「0」とし、他の画像領域を「1」としているが、これに限らず、パン44の画像領域を「1」とし、他の画像領域を「0」としてもよい。   The estimation apparatus 20 according to the present embodiment sets “0” (white) as a pixel indicating the distance in the range from the upper end to the center in the height direction of the pan 44 in the distance image data obtained by the camera 32. Binary image data is generated by setting the other pixels to “1” (black). By binarizing the distance image data, the image area of the pan 44 and another image area can be divided by different values. In the present embodiment, as described above, the image area of the pan 44 is “0” and the other image areas are “1”. However, the present invention is not limited to this, and the image area of the pan 44 is “1”. The other image area may be "0".

また、推定装置20は、生成した2値画像データを用いて、ピッキング場所40Bに設けられた入荷用番重42に収容されているパン44の穴44Aの位置を推定する。   In addition, the estimation device 20 estimates the position of the hole 44A of the pan 44 contained in the arrival number 42 provided at the picking place 40B, using the generated binary image data.

一方、本実施形態に係る物体位置認識装置10は、上述したように、推定装置20によって推定されたパン44の穴44Aの位置等に基づいて、入荷用番重42におけるパン44の個々の位置を認識する。そして、物体位置認識装置10は、認識したパン44の位置を示す位置情報をピッキングロボット30に送信する。   On the other hand, as described above, the object position recognition apparatus 10 according to the present embodiment is based on the position of the hole 44A of the pan 44 estimated by the estimation apparatus 20, etc. Recognize Then, the object position recognition device 10 transmits position information indicating the position of the recognized pan 44 to the picking robot 30.

ピッキングロボット30は、物体位置認識装置10から位置情報を受信すると、該位置情報に基づいて、ピッキング場所40Bに設けられた入荷用番重42からパン44を取り出す。そして、ピッキングロボット30は、入荷用番重42から取り出したパン44を、ベルトコンベア46によって物体収容位置46Aに位置決めされた出荷用番重48に必要数だけ収容する。ピッキングロボット30による出荷用番重48への必要数のパン44の収容が終了すると、ベルトコンベア46は、該出荷用番重48を、配送センタにおける出荷口等の所定の場所まで移動搬送する。   When the picking robot 30 receives the position information from the object position recognition device 10, the picking robot 30 takes out the pan 44 from the arrival number 42 provided at the picking place 40B based on the position information. Then, the picking robot 30 stores the necessary number of pans 44 taken out of the receiving number 42 in the shipping number 48 positioned at the object storage position 46A by the belt conveyor 46. When the picking robot 30 completes the storage of the required number of pans 44 in the shipping number 48, the belt conveyor 46 moves and transports the shipping number 48 to a predetermined location such as a shipping port at the delivery center.

なお、本実施形態に係る入荷用番重42は、パン44が平面視でパン44の穴44Aが視認可能な向きで、平面視の方向と交差する所定の配列方向(本実施形態では、一例として図1に示すように、横列方向及び縦列方向の2方向)に複数収容できる。本実施形態に係る入荷用番重42は、図1に示すように、最大で4個(横列方向)×3個(縦列方法)の合計12個のパン44が、各パン44の穴44Aが視認可能な向きで平置きされるものとされているが、これらの最大数は一例であることは言うまでもない。   In addition, in the delivery number 42 according to the present embodiment, the predetermined alignment direction (in the present embodiment, an example) which intersects the direction of the plan view in a direction in which the pan 44 can visually recognize the holes 44A of the pan 44 in plan view. As shown in FIG. 1, a plurality of pieces can be accommodated in two directions, row direction and column direction. As shown in FIG. 1, the stocking weights 42 according to the present embodiment have a total of 12 pans 44 at a maximum of 4 (row direction) × 3 (column method), and the holes 44A of each pan 44 are It is to be understood that although it is intended to be flat in a visible orientation, the maximum number of these is merely an example.

図2には、本実施形態に係る物体位置認識装置10及び該物体位置認識装置10に含まれる推定装置20が示されている。図2に示すように、本実施形態に係る推定装置20は、取得部11、検出部12、導出部13、受付部14及び推定部15を備えている。また、本実施形態に係る物体位置認識装置10は、推定装置20、重畳部17及び認識部18を備えている。   FIG. 2 shows an object position recognition apparatus 10 according to the present embodiment and an estimation apparatus 20 included in the object position recognition apparatus 10. As shown in FIG. 2, the estimation device 20 according to the present embodiment includes an acquisition unit 11, a detection unit 12, a derivation unit 13, a reception unit 14, and an estimation unit 15. Further, the object position recognition device 10 according to the present embodiment includes an estimation device 20, a superimposing unit 17, and a recognition unit 18.

取得部11は、収容可能な上限数のパン44が平面状に収容されて正番重とされた入荷用番重42の全てのパン44を含む物体群領域を包含する撮影領域をカメラ32で撮影することにより該撮影領域の距離画像データを取得する。そして、取得部11は、取得した距離画像データを前述したように2値化することにより、上記物体群領域を含む画像を示す2値画像データを生成する。   The acquisition unit 11 uses the camera 32 to capture an imaging area including an object group area including all the pans 44 of the receiving number 42 for reception, in which the upper limit number of pans 44 that can be accommodated are accommodated in a planar shape and made into a regular stack. By imaging, distance image data of the imaging area is acquired. Then, the acquiring unit 11 generates binary image data indicating an image including the object group area by binarizing the acquired distance image data as described above.

また、検出部12は、取得部11によって生成された2値画像データが示す2値画像中の物体群領域の、パン44の配列方向の両端部の位置を検出する。また、導出部13は、検出部12によって検出された両端部の間を上記上限数で均等に分割することにより複数の分割領域を導出する。更に、推定部15は、導出部13によって導出された複数の分割領域内の中央部の位置をパン44の各々における穴44Aの位置であると推定する。なお、受付部14は、上記上限数の入力を受け付けるものとされており、導出部13は、受付部14によって受け付けられた上限数を用いて、上記分割領域を導出する。   Further, the detection unit 12 detects the positions of both ends of the arrangement direction of the pan 44 in the object group region in the binary image represented by the binary image data generated by the acquisition unit 11. Further, the deriving unit 13 derives a plurality of divided areas by equally dividing the distance between the both ends detected by the detecting unit 12 by the upper limit number. Furthermore, the estimation unit 15 estimates the position of the central portion in the plurality of divided areas derived by the derivation unit 13 as the position of the hole 44A in each of the pans 44. The receiving unit 14 receives the input of the upper limit number, and the deriving unit 13 uses the upper limit number received by the receiving unit 14 to derive the divided area.

ところで、本実施形態に係る物体振り分けシステム90では、入荷用番重42が、パン44が上記配列方向として横列方向及び縦列方向の2つの方向に各々複数収容可能とされている。このため、本実施形態に係る検出部12は、横列方向及び縦列方向の各々別に、上記物体群領域における上記両端部の位置を検出する。また、導出部13は、横列方向及び縦列方向の各々別に、検出部12によって検出された両端部の間を、対応する上限数で均等に分割することにより複数の分割領域を導出する。そして、推定部15は、横列方向及び縦列方向の各々別に、導出部13によって導出された複数の分割領域内の中央部の位置をパン44の各方向に沿った穴44Aの位置であると推定する。   By the way, in the object distribution system 90 according to the present embodiment, a plurality of pans 42 for receiving can be accommodated in each of the pan 44 in two directions of the row direction and the column direction as the arrangement direction. For this reason, the detection unit 12 according to the present embodiment detects the positions of the both ends in the object group region separately for each of the row direction and the column direction. Further, the deriving unit 13 derives a plurality of divided areas by equally dividing between both ends detected by the detecting unit 12 by the corresponding upper limit number separately for each of the row direction and the column direction. Then, the estimation unit 15 estimates the position of the central portion in the plurality of divided areas derived by the derivation unit 13 as the position of the hole 44A along each direction of the pan 44 separately for each of the row direction and the column direction. Do.

特に、本実施形態に係る検出部12は、導出部13によって導出された複数の分割領域のうち、横列方向及び縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の両端部の位置を更に検出する。また、検出部12は、導出部13によって導出された複数の分割領域のうち、横列方向及び縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の両端部の位置を更に検出する。また、導出部13は、検出部12によって検出された、横列方向に沿った複数の分割領域群及び縦列方向に沿った複数の分割領域群の各々の両端部の間を、対応する上限数で均等に分割することにより上記複数の分割領域を再度導出する。そして、推定部15は、横列方向及び縦列方向の各々別に、導出部13によって再度導出された複数の分割領域内の中央部の位置をパン44の各々における穴44Aの位置であると推定する。   In particular, the detection unit 12 according to the present embodiment selects one of the plurality of divided regions derived by the derivation unit 13 for each of the plurality of divided region groups along the arrangement direction in either the row direction or the column direction. The positions of both ends are further detected. Further, the detection unit 12 sets the positions of both end portions of each of the plurality of divided area groups along the other arrangement direction in the row direction or the column direction among the plurality of divided areas derived by the derivation unit 13 Further detect. Further, the derivation unit 13 sets the upper limit number between the respective end portions of the plurality of divided area groups along the row direction and the plurality of divided area groups along the vertical direction detected by the detection unit 12 to each other. The plurality of divided areas are derived again by equally dividing. Then, the estimation unit 15 estimates the position of the central portion in the plurality of divided areas derived again by the derivation unit 13 as the position of the hole 44A in each of the pans 44 separately for each of the row direction and the column direction.

また、本実施形態に係る推定部15は、入荷用番重42に収容されているパン44の数が上限数より少ない場合、入荷用番重42が正番重である場合に推定した穴44Aの位置を、入荷用番重42に収容されているパン44の穴44Aの仮の位置であるとする。そして、推定部15は、上記仮の位置のうち、パン44の画像以外の画像に囲まれている割合が所定値未満の位置を、パン44の各々における穴44Aの位置であると推定する。   In addition, when the number of pans 44 accommodated in the arrival number 42 is smaller than the upper limit number, the estimation unit 15 according to the present embodiment estimates the hole 44A when the arrival number 42 is a true number. Position is assumed to be a temporary position of the hole 44A of the pan 44 accommodated in the arrival number 42. Then, the estimation unit 15 estimates that the position surrounded by an image other than the image of the pan 44 in the temporary position is a position less than a predetermined value as the position of the hole 44A in each of the pans 44.

なお、本実施形態に係る物体振り分けシステム90では、カメラ32によって距離画像データを取得している。このため、本実施形態に係る推定部15等は、カメラ32によって取得された距離画像データを前述したように2値化した2値画像データを用いている。しかしながら、これに限定されるものではない。例えば、カメラ32としてカラー画像を撮影するカメラやモノクロ画像を撮影するカメラ等を適用した場合には、カメラ32によって取得された複数階調の画像データを予め定められた閾値で2値化した2値画像データを用いればよい。   In the object distribution system 90 according to the present embodiment, the camera 32 acquires distance image data. Therefore, the estimation unit 15 and the like according to the present embodiment use binary image data obtained by binarizing the distance image data acquired by the camera 32 as described above. However, it is not limited to this. For example, when a camera for capturing a color image, a camera for capturing a monochrome image, or the like is applied as the camera 32, image data of multiple gradations acquired by the camera 32 is binarized with a predetermined threshold 2 Value image data may be used.

一方、重畳部17は、2値画像データにおける、推定部15により推定された位置に対して、穴44Aをマスクするためのマスクデータを重畳させ、認識部18は、重畳部17によりマスクデータが重畳された2値画像データを用いてパン44の配置位置を認識する。なお、認識部18によるパン44の配置位置の認識結果はピッキングロボット30に送信され、ピッキングロボット30により、認識部18から受信した認識結果が用いられて、入荷用番重42に収容された個々のパン44のピッキングが行われる。   On the other hand, the superimposing unit 17 superimposes mask data for masking the hole 44A on the position estimated by the estimating unit 15 in the binary image data, and the recognition unit 18 makes the mask data The placement position of the pan 44 is recognized using the superimposed binary image data. The recognition result of the arrangement position of the pan 44 by the recognition unit 18 is transmitted to the picking robot 30, and the recognition result received from the recognition unit 18 by the picking robot 30 is used, and the individual accommodated in the arrival number 42 is used. Picking of the bread 44 is performed.

推定装置20における取得部11は本発明に係る取得部の一例であり、検出部12は本発明に係る検出部の一例であり、導出部13は本発明に係る導出部の一例である。また、推定装置20における受付部14は本発明に係る受付部の一例であり、推定部15は本発明に係る推定部の一例である。また、物体位置認識装置10の認識部18は本発明に係る認識部の一例である。   The acquisition unit 11 in the estimation device 20 is an example of an acquisition unit according to the present invention, the detection unit 12 is an example of a detection unit according to the present invention, and the derivation unit 13 is an example of a derivation unit according to the present invention. Moreover, the reception part 14 in the estimation apparatus 20 is an example of the reception part which concerns on this invention, and the estimation part 15 is an example of the estimation part which concerns on this invention. The recognition unit 18 of the object position recognition apparatus 10 is an example of a recognition unit according to the present invention.

物体位置認識装置10及び推定装置20は、例えば図3に示すコンピュータ50で実現することができる。コンピュータ50はCPU(Central Processing Unit)51、メモリ52、記憶部53、入力部54、表示部55、インタフェース(I/F)部56を備えている。CPU51、メモリ52、記憶部53、入力部54、表示部55、I/F部56はバス59を介して互いに接続されている。I/F部56には上述したピッキングロボット30及びカメラ32が接続されている。なお、本実施形態では、ピッキングロボット30及びカメラ32が有線によりコンピュータ50に接続されているが、これに限らず、無線で接続される形態としてもよい。   The object position recognition device 10 and the estimation device 20 can be realized, for example, by a computer 50 shown in FIG. The computer 50 includes a central processing unit (CPU) 51, a memory 52, a storage unit 53, an input unit 54, a display unit 55, and an interface (I / F) unit 56. The CPU 51, the memory 52, the storage unit 53, the input unit 54, the display unit 55, and the I / F unit 56 are connected to one another via a bus 59. The picking robot 30 and the camera 32 described above are connected to the I / F unit 56. In the present embodiment, the picking robot 30 and the camera 32 are connected to the computer 50 by wire, but the present invention is not limited to this, and a wireless connection may be made.

また、記憶部53はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現することができる。記録媒体としての記憶部53には、コンピュータ50を物体位置認識装置10及び推定装置20として機能させるための物体位置認識プログラム53Aが記憶されている。CPU51は、物体位置認識プログラム53Aを記憶部53から読み出してメモリ52に展開し、物体位置認識プログラム53Aが有するプロセスを順次実行する。   In addition, the storage unit 53 can be realized by a hard disk drive (HDD), a flash memory, or the like. An object position recognition program 53A for causing the computer 50 to function as the object position recognition device 10 and the estimation device 20 is stored in the storage unit 53 as a recording medium. The CPU 51 reads the object position recognition program 53A from the storage unit 53, develops it in the memory 52, and sequentially executes the processes possessed by the object position recognition program 53A.

物体位置認識プログラム53Aは、取得プロセス53A1、検出プロセス53A2、導出プロセス53A3、受付プロセス53A4、推定プロセス53A5、重畳プロセス53A6及び認識プロセス53A7を有する。CPU51は、取得プロセス53A1を実行することで、図2に示す取得部11として動作し、検出プロセス53A2を実行することで、図2に示す検出部12として動作し、導出プロセス53A3を実行することで図2に示す導出部13として動作する。また、CPU51は、受付プロセス53A4を実行することで、図2に示す受付部14として動作し、推定プロセス53A5を実行することで、図2に示す推定部15として動作する。更に、CPU51は、重畳プロセス53A6を実行することで、図2に示す重畳部17として動作し、認識プロセス53A7を実行することで、図2に示す認識部18として動作する。これにより、物体位置認識プログラム53Aを実行したコンピュータ50が、物体位置認識装置10及び推定装置20として機能することになる。なお、物体位置認識プログラム53Aは本発明の推定プログラムの一例を含む。   The object position recognition program 53A has an acquisition process 53A1, a detection process 53A2, a derivation process 53A3, a reception process 53A4, an estimation process 53A5, a superposition process 53A6 and a recognition process 53A7. The CPU 51 operates as the acquisition unit 11 illustrated in FIG. 2 by executing the acquisition process 53A1, and operates as the detection unit 12 illustrated in FIG. 2 by executing the detection process 53A2, and executes the derivation process 53A3. Operates as the derivation unit 13 shown in FIG. Further, the CPU 51 operates as the reception unit 14 illustrated in FIG. 2 by executing the reception process 53A4, and operates as the estimation unit 15 illustrated in FIG. 2 by executing the estimation process 53A5. Furthermore, the CPU 51 operates as the superimposing unit 17 illustrated in FIG. 2 by executing the superposition process 53A6, and operates as the recognition unit 18 illustrated in FIG. 2 by executing the recognition process 53A7. Thus, the computer 50 executing the object position recognition program 53A functions as the object position recognition device 10 and the estimation device 20. The object position recognition program 53A includes an example of the estimation program of the present invention.

一方、記憶部53には、画像データ記憶領域53Bが設けられている。CPU51が、画像データ記憶領域53Bに記憶された距離画像データをメモリ52に展開することにより、距離画像データが作成される。   On the other hand, the storage unit 53 is provided with an image data storage area 53B. The CPU 51 develops the distance image data stored in the image data storage area 53 </ b> B in the memory 52 to create distance image data.

なお、物体位置認識装置10は、パーソナル・コンピュータ、またはPDA(Personal Digital Assistant)の機能を搭載した携帯型の装置であるスマート端末等であってもよい。また、物体位置認識装置10は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。   The object position recognition device 10 may be a personal computer or a smart terminal or the like which is a portable device equipped with a PDA (Personal Digital Assistant) function. The object position recognition apparatus 10 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an application specific integrated circuit (ASIC) or the like.

次に、本実施形態の作用を説明する。本実施形態では、配送センタの作業員が処理対象とする複数の入荷用番重42をテーブル40の積層場所40Aに対して上述したように積層する。その後、作業員がコンピュータ50に対して物体位置認識プログラム53Aを実行させることで、図4に示す物体位置認識処理が行われる。なお、錯綜を回避するため、ここでは、カメラ32による撮影によって連続的に得られる距離画像データが記憶部53の画像データ記憶領域53Bにリアルタイムで記憶されるものとして説明する。   Next, the operation of the present embodiment will be described. In the present embodiment, the worker of the distribution center stacks a plurality of receiving bunds 42 to be processed with respect to the stacking place 40A of the table 40 as described above. Thereafter, the worker causes the computer 50 to execute the object position recognition program 53A, whereby the object position recognition process shown in FIG. 4 is performed. Here, in order to avoid confusion, it is assumed here that distance image data continuously obtained by photographing with the camera 32 is stored in the image data storage area 53B of the storage unit 53 in real time.

物体位置認識処理のステップ100において、受付部14は、各種初期情報を入力するための画面として予め定められた初期情報入力画面を表示するように表示部55を制御し、次のステップ102において、受付部14は、所定情報の入力待ちを行う。   In step 100 of the object position recognition process, the reception unit 14 controls the display unit 55 to display an initial information input screen predetermined as a screen for inputting various initial information, and in the next step 102, The reception unit 14 waits for input of predetermined information.

図5には、本実施形態に係る初期情報入力画面の一例が示されている。図5に示すように、本実施形態に係る初期情報入力画面では、入荷用番重42へのパン44の最大収容数を入力するための入力領域55A、及び今回の物体位置認識処理において処理対象とする入荷用番重42の数を入力するための入力領域55Bが表示される。ここで、上記最大収容数は上記上限数に相当する。なお、本実施形態に係る物体振り分けシステム90では、前述したように、1つの入荷用番重42に対して横列方向及び縦列方向の2次元状にパン44が収容できるものを処理対象としている。このため、本実施形態に係る初期情報入力画面では、最大収容数を入力するための入力領域55Aとして、横列方向の最大収容数を入力するための入力領域55A1、及び縦列方向の最大収容数を入力するための入力領域55A2が表示される。   FIG. 5 shows an example of the initial information input screen according to the present embodiment. As shown in FIG. 5, on the initial information input screen according to the present embodiment, an input area 55A for inputting the maximum number of accommodation of the pan 44 to the arrival number 42, and an object to be processed in the current object position recognition process An input area 55B for inputting the number of incoming stocking weights 42 is displayed. Here, the maximum accommodation number corresponds to the upper limit number. In the object sorting system 90 according to the present embodiment, as described above, a processing target is one in which the pan 44 can be accommodated in a two-dimensional shape of the row direction and the column direction with respect to one receiving number 74. Therefore, in the initial information input screen according to the present embodiment, as the input area 55A for inputting the maximum accommodation number, the input area 55A1 for inputting the maximum accommodation number in the row direction, and the maximum accommodation number in the column direction An input area 55A2 for input is displayed.

図5に示す初期情報入力画面が表示部55に表示されると、作業者は、入力部54を用いて、入荷用番重42へのパン44の横列方向の最大収容数を入力領域55A1に入力し、同じく縦列方向の最大収容数を入力領域55A2に入力する。また、作業員は、入力部54を用いて、今回の物体位置認識処理において処理対象とする入荷用番重42の数を入力領域55Bに入力する。   When the initial information input screen shown in FIG. 5 is displayed on the display unit 55, the operator uses the input unit 54 to set the maximum number of accommodation of the pan 44 in the row direction of the receiving number 42 to the input area 55A1. Input is performed, and the maximum accommodation number in the column direction is also input to the input area 55A2. In addition, the worker uses the input unit 54 to input the number of the delivery number 42 to be processed in the current object position recognition process in the input area 55B.

作業員は、以上の入力が終了すると、初期情報入力画面に表示されている「入力終了」ボタン55Cを入力部54により指定する。「入力終了」ボタン55Cが指定されると、ステップ102が肯定判定となってステップ104に移行する。   When the operator completes the above input, the operator designates the “end of input” button 55C displayed on the initial information input screen by the input unit 54. When the "input end" button 55C is designated, step 102 becomes affirmation determination, and the process shifts to step 104.

ステップ104において、取得部11は、ピッキング場所40Bにパン44が収容された入荷用番重42が配置されているか否かを判定し、パン44が収容された入荷用番重42がピッキング場所40Bに配置されていると肯定判定となりステップ106に移行する。なお、ステップ104の処理を実行する際に、取得部11は、画像データ記憶領域53Bに記憶されている最新の距離画像データを読み出す。また、取得部11は、読み出した距離画像データを前述したように2値化することにより2値画像データを生成する。そして、取得部11は、生成した2値画像データが示す画像(以下、「処理対象画像」という。)に上記物体群領域が含まれているか否かを判定することにより、ステップ104による判定を行う。   In step 104, the acquisition unit 11 determines whether or not the receiving number 42 for receiving the bread 44 is disposed at the picking location 40B, and the receiving number 42 for receiving the bread 44 is at the picking location 40B. If it is placed in the case, the determination is affirmative and the process proceeds to step 106. Note that when executing the processing of step 104, the acquisition unit 11 reads the latest distance image data stored in the image data storage area 53B. The acquisition unit 11 also generates binary image data by binarizing the read distance image data as described above. Then, the acquisition unit 11 determines the determination in step 104 by determining whether the object group region is included in the image (hereinafter referred to as “processing target image”) indicated by the generated binary image data. Do.

ステップ106において、検出部12は、ピッキング場所40Bに配置されている入荷用番重42(以下、「処理対象番重」という。)が、今回の物体位置認識処理で対象としている入荷用番重42のうちの最後の入荷用番重42であるか否かを判定する。そして、この判定が否定判定となった場合、即ち処理対象番重が最後の入荷用番重42でない場合はステップ108に移行する。なお、ステップ106における処理対象番重が最後の入荷用番重42であるか否かの判定は、例えば、積層場所40Aからピッキング場所40Bへの入荷用番重42の移動回数が、初期情報入力画面を介して入力された入荷用番重42の数に達したか否かを判定することにより行うことができる。また、テーブル40の積層場所40Aから入荷用番重42が無くなったか否かに基づいて、ステップ106の判定を行ってもよい。   In step 106, the detecting unit 12 determines that the delivery number 42 (hereinafter referred to as "processing target number") placed at the picking location 40B is the target number in the current object position recognition process. It is determined whether or not it is the last stocking weight 42 out of 42. Then, if this determination is negative, that is, if the process target load is not the last arrival load weight 42, the process proceeds to step 108. It should be noted that it is determined whether or not the number of movements of the arrival number 42 from the stacking place 40A to the picking place 40B is the initial information input, for example, as to whether or not the processing object number in step 106 is the last arrival number 42. This can be done by determining whether or not the number of incoming stocking weights 42 entered via the screen has been reached. In addition, the determination in step 106 may be performed based on whether or not the arrival number 42 has disappeared from the stacking location 40A of the table 40.

ステップ108において、検出部12は、処理対象番重が正番重であるか否かを判定し、肯定判定となった場合はステップ110に移行する。なお、ステップ108における判定は、処理対象番重について、後述するステップ110の処理(正番重処理)が一度も実行されていない場合に正番重であると判定し、処理対象番重について正番重処理が実行された場合に正番重ではないと判定することにより行う。   In step 108, the detection unit 12 determines whether or not the processing object number is a regular number, and when an affirmative determination is made, the process proceeds to step 110. In addition, the determination in step 108 determines that the processing object number is positive if the processing in step 110 (regular number processing) to be described later is not executed even once, and the processing object number is positive. It is performed by determining that the order is not the correct order when the order process is performed.

ステップ110において、CPU51は、図6に示す正番重処理を行う。   At step 110, the CPU 51 carries out the serial number processing shown in FIG.

正番重処理のステップ200において、取得部11は、画像データ記憶領域53Bから最新の距離画像データを読み出し、該距離画像データを前述したように2値化して2値画像データを生成する。次のステップ202において、検出部12は、生成した2値画像データからパン44の領域と他の領域との境界線を抽出する。   In step S200, the acquisition unit 11 reads the latest distance image data from the image data storage area 53B, and binarizes the distance image data as described above to generate binary image data. In the next step 202, the detection unit 12 extracts the boundary between the area of the pan 44 and the other area from the generated binary image data.

図7には、左端に理想的な正番重とされた入荷用番重42の平面視のイメージを示す図が示されると共に、ステップ200の処理によって取得した2値画像データにより示される2値画像(処理対象画像)の3種類の例が示されている。   FIG. 7 is a diagram showing an image of a plan view of the stock number 42 made to be an ideal regular stack at the left end, and a binary represented by binary image data acquired by the processing of step 200. Three examples of images (processing target images) are shown.

図7の左端の図に示すように、本実施形態では、入荷用番重42が、4個(横列方向)×3個(縦列方向)の合計12個のドーナツ状のパン44が収容可能とされている。しかしながら、実際の処理対象画像は、入荷用番重42の移送の際の振動や傾斜等により、一例として図7の左から2番目の図に示すように、収容されているパン44が全体的に接触した状態となる場合がある。また、処理対象画像は、一例として図7の右から2番目の図に示すように、全体的に一箇所に偏った状態となる場合もある。更に、処理対象画像は、一例とした図7の右端の図に示すように、個々のパン44が離間した状態となる場合もある。なお、以下では、図7の左から2番目の図に示す処理対象画像を「第1画像」といい、図7の右から2番目の図に示す処理対象画像を「第2画像」といい、図7の右端の図に示す処理対象画像を「第3画像」という。   As shown in the left end of FIG. 7, in the present embodiment, a total of 12 doughnut-shaped pans 44 capable of receiving four (row direction) × 3 (column direction) can be accommodated by the delivery number 42. It is done. However, as shown in the second image from the left in FIG. 7 as an example, the actual image to be processed is generally contained in the pan 44 housed in the second figure from the left due to vibration, inclination and the like at the time of transfer of the receiving number 42. It may be in contact with the Further, as shown in the second drawing from the right in FIG. 7 as an example, the processing target image may be entirely biased to one position. Furthermore, the image to be processed may be in a state where the individual pans 44 are separated as shown in the right end of FIG. 7 as an example. In the following, the processing target image shown in the second drawing from the left in FIG. 7 is called the “first image”, and the processing target image shown in the second drawing from the right in FIG. 7 is called the “second image”. The processing target image shown in the right end of FIG. 7 is referred to as a “third image”.

このような画像に対し、ステップ202による境界線の抽出では、一例として図8の左端の図に示すように、処理対象画像の周囲の4つの辺から該画像の内側に向かって画素値が「1」から「0」に変化する点を、上記境界線を構成する各点として検出する。なお、この各点を検出する場合、処理対象画像におけるパン44の画像の領域の外側にノイズ画像が含まれている場合には、正確な境界線が得られなくなる。このため、本実施形態に係る検出部12は、境界線の抽出を行うに先立って、2値画像データに対してノイズ除去処理を実行する。なお、ここで適用するノイズ除去処理としては、メディアンフィルタによる方法や、移動平均フィルタによる方法等の従来既知の技術が例示される。   With respect to such an image, in the extraction of the boundary line in step 202, as shown in the left end of FIG. 8 as an example, the pixel values from the four sides around the processing target image toward the inside of the image are A point changing from 1 "to" 0 "is detected as each point constituting the boundary. In addition, when detecting each of these points, when the noise image is included outside the area of the image of the pan 44 in the processing target image, an accurate boundary line can not be obtained. For this reason, the detection unit 12 according to the present embodiment performs noise removal processing on binary image data prior to extraction of boundary lines. In addition, as a noise removal process applied here, the conventionally known techniques, such as the method by a median filter and the method by a moving average filter, are illustrated.

この境界線を抽出する処理により、例えば、上記第1画像については図8の左から2番目の図に示す境界線が得られる。同様に、上記第2画像については図8の右から2番目の図に示す境界線が得られ、上記第3画像については図8の右端の図に示す境界線が得られる。   By the process of extracting the boundary line, for example, the boundary line shown in the second figure from the left in FIG. 8 is obtained for the first image. Similarly, for the second image, the boundary shown in the second figure from the right in FIG. 8 is obtained, and for the third image, the boundary shown in the right end of FIG. 8 is obtained.

次のステップ204において、検出部12は、ステップ202の処理によって得られた境界線に対する外接矩形枠を特定する。この処理により、例えば、上記第1画像については図9の左端の図に示す外接矩形枠が得られる。同様に、上記第2画像については図9の中央の図に示す外接矩形枠が得られ、上記第3画像については図9の右端の図に示す外接矩形枠が得られる。   In the next step 204, the detection unit 12 specifies a circumscribed rectangular frame for the boundary obtained by the process of step 202. By this processing, for example, a circumscribed rectangular frame shown in the left end of FIG. 9 is obtained for the first image. Similarly, the circumscribed rectangular frame shown in the center of FIG. 9 is obtained for the second image, and the circumscribed rectangular frame shown in the right end of FIG. 9 is obtained for the third image.

次のステップ206において、検出部12は、ステップ204の処理によって得られた外接矩形枠から、横列方向及び縦列方向の各方向に対する両端部の位置を検出する。このように、本実施形態では、入荷用番重42に横列方向及び縦列方向の2次元状にパン44が収容可能とされているため、ステップ206では、横列方向及び縦列方向の各方向に対する両端部の位置を検出しているが、これに限定されるものではない。例えば、入荷用番重42が1列分のパン44のみが収容可能とされている場合、ステップ206では、横列方向(パン44の配列方向)のみの両端部の位置を検出すればよい。   In the next step 206, the detection unit 12 detects the positions of both ends in each of the row direction and the column direction from the circumscribed rectangular frame obtained by the process of step 204. As described above, in the present embodiment, since the pan 44 can be accommodated in two dimensions in the row direction and the column direction in the receiving number 42, in step 206, both ends in each direction of the row direction and the column direction Although the position of a part is detected, it is not limited to this. For example, in the case where only one row of pans 44 can be accommodated in the receiving number 42, in step 206, the positions of both ends only in the row direction (the arrangement direction of the pans 44) may be detected.

次のステップ208において、導出部13は、ステップ206の処理によって検出された横列方向の両端部の間を、上記上限数に対応する横列方向の最大収容数で均等に分割することにより、横列方向に対する複数の分割領域を導出する。また、導出部13は、ステップ206の処理によって検出された縦列方向の両端部の間を、上記上限数に対応する縦列方向の最大収容数で均等に分割することにより、縦列方向に対する複数の分割領域を導出する。この処理により、例えば、上記第1画像については図9の左端の図に示す分割領域が得られる。同様に、上記第2画像については図9の中央の図に示す分割領域が得られ、上記第3画像については図9の右端の図に示す分割領域が得られる。   In the next step 208, the derivation unit 13 divides the distance between both ends in the row direction detected by the process of step 206 evenly by the maximum accommodation number in the row direction corresponding to the upper limit number. Derive multiple division regions for Further, the derivation unit 13 divides a plurality of divisions in the vertical direction by dividing equally between both ends in the vertical direction detected by the process of step 206 by the maximum accommodation number in the vertical direction corresponding to the upper limit number. Deriving the area. By this processing, for example, the divided area shown in the left end of FIG. 9 is obtained for the first image. Similarly, the divided area shown in the center of FIG. 9 is obtained for the second image, and the divided area shown in the right end of FIG. 9 is obtained for the third image.

ところで、例えば上記第1画像や上記第2画像のように、上記境界線の輪郭が概ね矩形状となっている場合は、以上の処理によって得られた分割領域が、パン44の各々が配置されている領域であると概ね推定することができる。しかしながら、上記第3画像のように、上記境界線の輪郭が矩形状ではない形状(例えば、台形状や平行四辺形状等)となっている場合は、以上の処理によって得られた分割領域が、パン44の各々が配置されている領域であると推定することはできない。   By the way, for example, when the outline of the boundary is substantially rectangular like the first image and the second image, each of the pans 44 is arranged in the divided area obtained by the above processing. It can be roughly estimated that the However, if the outline of the boundary is not rectangular (for example, trapezoidal or parallelogram) as in the third image, the divided area obtained by the above processing is It can not be estimated that each of the pans 44 is an area where it is arranged.

そこで、本実施形態に係る検出部12は、導出部13によって導出された複数の分割領域のうち、横列方向及び縦列方向の何れか一方の方向(本実施形態では、横列方向)に沿った複数の分割領域群の各々毎の両端部の位置を更に検出する。また、検出部12は、導出部13によって導出された複数の分割領域のうち、横列方向及び縦列方向の何れか他方の方向(本実施形態では、縦列方向)に沿った複数の分割領域群の各々毎の両端部の位置を更に検出する。   Therefore, the detection unit 12 according to the present embodiment is a plurality of the plurality of divided regions derived by the derivation unit 13 along any one of the row direction and the column direction (in the present embodiment, the row direction). The positions of both ends of each of the divided area groups are further detected. In addition, the detection unit 12 selects one of a plurality of divided areas derived from the derivation unit 13 in a plurality of divided area groups along the other direction (in the present embodiment, the vertical direction) of the row direction and the column direction. The position of each end is further detected.

そして、本実施形態に係る導出部13は、検出部12によって検出された、横列方向に沿った複数の分割領域群及び縦列方向に沿った複数の分割領域群の各々の両端部の間を、対応する上限数(最大収容数)で均等に分割することにより、上記複数の分割領域を再度導出する。   Then, the derivation unit 13 according to the present embodiment detects the distance between each end of each of the plurality of divided area groups in the row direction and the plurality of divided area groups in the vertical direction detected by the detection unit 12 The plurality of divided areas are derived again by dividing equally by the corresponding upper limit number (maximum accommodation number).

以上の検出部12及び導出部13の処理のうち、横列方向に沿った分割領域群に対する処理を第1段階として行うことにより、一例として上記第3画像については図10に示すように、横列方向に対する分割領域が調整される。また、第1段階の処理を経た分割領域に対して、以上の検出部12及び導出部13の処理のうち、縦列方向に沿った分割領域群に対する処理を第2段階として行う。これにより、図11に示すように、横列方向に対する分割領域に加えて、縦列方向に対する分割領域が調整される。   Of the processes of the detection unit 12 and the derivation unit 13 described above, the process on the divided area group along the row direction is performed as the first step, and the row direction is, for example, shown in FIG. The division area for is adjusted. Further, the processing of the divided area group along the vertical direction among the processes of the detection unit 12 and the derivation unit 13 described above is performed as a second stage on the divided areas that have undergone the first stage processing. Thereby, as shown in FIG. 11, in addition to the division area in the row direction, the division area in the column direction is adjusted.

以上の処理によって得られた分割領域は、複数のパン44の各々による配置位置の偏りをも考慮した分割領域となるため、該分割領域がパン44の各々が配置されている領域であると高精度で推定することができる。   The divided area obtained by the above processing is a divided area that also takes into account the deviation of the arrangement position by each of the plurality of pans 44. Therefore, if the divided area is an area in which each of the pans 44 is arranged, It can be estimated with accuracy.

次のステップ210において、推定部15は、横列方向及び縦列方向の各々別に、導出部13によって再度導出された複数の分割領域内の中央部の位置をパン44の各々における穴44Aの位置であると推定する。   In the next step 210, the estimation unit 15 sets the position of the central portion in the plurality of divided areas re-derived by the derivation unit 13 separately for each of the row direction and the column direction as the position of the hole 44A in each of the pans 44. Estimate.

次のステップ212において、推定部15は、推定したパン44の各々における穴44Aの位置を示す位置情報をメモリ52に記憶する。次のステップ214において、重畳部17は、処理対象画像を示す2値画像データにおける、推定部15により推定された位置に対して、穴44Aをマスクするためのマスクデータを重畳させた後、本正番重処理を終了する。正番重処理が終了すると、図4に示す物体位置認識処理のステップ116に移行する。なお、本実施形態では、マスクデータとして、予め定められたサイズ(直径)の円形状の画像を、2値画像データにおけるパン44の画像と同様の値(本実施形態では、「0」)で形成するデータを用いている。   In the next step 212, the estimation unit 15 stores, in the memory 52, position information indicating the positions of the holes 44A in each of the estimated pans 44. In the next step 214, the superimposing unit 17 superimposes mask data for masking the hole 44A on the position estimated by the estimating unit 15 in the binary image data indicating the processing target image. Finish the regular stacking process. When the regular stacking process is finished, the process proceeds to step 116 of the object position recognition process shown in FIG. In the present embodiment, as mask data, a circular image of a predetermined size (diameter) is set to a value (“0” in the present embodiment) similar to the image of the pan 44 in binary image data. The data to be formed is used.

なお、サイズの小さい分割領域に対応するパン44は、圧縮度合いが大きく、穴44Aの直径も、より小さくなっている可能性がある。これを考慮すると、個々の分割領域のサイズに応じてマスクデータのサイズ(円の直径)を変化させてもよい。   The pan 44 corresponding to the small-sized divided area may have a large degree of compression, and the diameter of the hole 44A may be smaller. Taking this into consideration, the size of the mask data (diameter of circle) may be changed according to the size of each divided area.

図12には、処理対象画像が上記第1画像〜第3画像である場合において、ステップ214の処理によってマスクされる位置が上記境界線及び分割領域と共に示されている。また、図13の上段には、処理対象画像が上記第1画像〜第3画像である場合において、ステップ214の処理によってマスクされる位置が処理対象画像と共に示されている。更に、図13の下段には、対応する処理対象画像にマスクデータが重畳された後の処理対象画像が示されている。   In FIG. 12, when the processing target image is the first to third images, the positions masked by the process of step 214 are shown together with the boundary lines and the divided areas. Further, in the upper part of FIG. 13, when the processing target image is the first to third images, positions to be masked by the processing of step 214 are shown together with the processing target image. Further, the lower part of FIG. 13 shows the processing target image after the mask data is superimposed on the corresponding processing target image.

図12及び図13に示すように、ステップ214のマスクデータの重畳によって、一部のパン44の画像については小さなマスク洩れが見られるものの、殆どのパン44の画像については穴44Aに相当する画像がなくなっている(マスクされている)ことがわかる。なお、ここでいう「マスク洩れ」は、マスクすべき領域(穴44Aの領域)の一部がマスクできていないことを意味する。従って、マスクデータが重畳された後の処理対象画像に対してパン44の位置を認識する物体位置認識を行うことにより、穴44Aの画像の影響を受けない、若しくは穴44Aの画像の影響が低減された認識を行うことができる。この結果、パン44の個々の位置を、より高精度に認識できるようになる。   As shown in FIG. 12 and FIG. 13, although the small mask leakage is seen for the image of some pans 44 due to the superposition of the mask data of step 214, the image corresponding to the hole 44 A for the image of most of the pans 44. It can be seen that is lost (masked). Here, "mask leakage" means that a part of the area to be masked (the area of the hole 44A) can not be masked. Therefore, by performing object position recognition that recognizes the position of the pan 44 on the processing target image after the mask data is superimposed, the influence of the image of the hole 44A or the influence of the image of the hole 44A is reduced. Recognition can be performed. As a result, the individual positions of the pan 44 can be recognized with higher accuracy.

一方、図4に示す物体位置認識のステップ108において否定判定となった場合、処理対象番重が端数番重であると見なしてステップ112に移行し、CPU51は、図14に示す端数番重処理を行う。   On the other hand, if a negative determination is made in step 108 of the object position recognition shown in FIG. 4, the processing object number is regarded as a fractional weight and processing proceeds to step 112, and the CPU 51 performs the fractional number processing shown in FIG. I do.

端数番重処理のステップ300において、取得部11は、画像データ記憶領域53Bから最新の距離画像データを読み出し、該距離画像データを前述したように2値化して2値画像データを生成する。次のステップ302において、検出部12は、直近に実行した正番重処理のステップ212の処理によって記憶した位置情報を読み出す。   In step 300 of round number processing, the acquisition unit 11 reads the latest distance image data from the image data storage area 53B, and binarizes the distance image data as described above to generate binary image data. In the next step 302, the detection unit 12 reads out the position information stored by the processing of step 212 of the regular number processing performed most recently.

次のステップ304において、重畳部17は、ステップ300の処理によって生成した2値画像データに対して、ステップ302の処理によって読み出した位置情報により示される位置に上記マスクデータを重畳させる。   In the next step 304, the superimposing unit 17 superimposes the mask data on the position indicated by the position information read out in the process of step 302 on the binary image data generated by the process of step 300.

図15には、ステップ300の処理によって取得した2値画像データにより示される2値画像(処理対象画像)の3種類の例が示されている。   FIG. 15 shows three examples of binary images (processing target images) indicated by binary image data acquired by the process of step 300.

図15の左端の図は、正番重状態での処理対象画像が上記第1画像である処理対象番重に対して1段目の右半分の2個のパン44がピッキングされた状態の画像(以下、「第4画像」という。)を示す。また、図15の中央の図は、正番重状態での処理対象画像が上記第2画像である処理対象番重に対し、1段目の4個全てと2段目の中央部の2個の合計6個のパン44がピッキングされた状態の画像(以下、「第5画像」という。)を示す。更に、図15の右端の図は、正番重状態での処理対象画像が上記第3画像である処理対象番重に対し、1段目の右側の3個のパン44と、2段目の左半分の2個の合計5個のパン44がピッキングされた状態の画像(以下、「第6画像」という。)を示す。また、図16には、処理対象画像が上記第4画像〜第6画像である場合において、ステップ304の処理によってマスクされる位置が処理対象画像と共に示されている。   The image at the left end of FIG. 15 is an image in a state in which two pans 44 in the right half of the first row are picked with respect to the processing target weight which is the processing target image which is the first image. (Hereafter, it is called "4th image."). Further, in the central diagram of FIG. 15, the processing target image in the regular stacking state is all four in the first row and two in the central portion of the second row with respect to the processing row number being the second image. An image (hereinafter referred to as a “fifth image”) in a state where a total of six pans 44 have been picked up is shown. Furthermore, in the rightmost drawing of FIG. 15, the processing target image in the regular stacking state is the third pan 44 on the right side of the processing target stacking which is the third image, and the second pan An image (hereinafter referred to as a “sixth image”) in a state where two pans 44 in total in the left half have been picked is shown. Further, in FIG. 16, when the processing target image is the fourth to sixth images, the position to be masked by the process of step 304 is shown together with the processing target image.

図16に示すように、ステップ304の処理では、実際にはパン44が存在しない領域までマスクデータが重畳されるため、このままではパン44が存在しない領域で、かつマスクデータが重畳された領域にパン44が位置しているものと誤判定される虞が高い。そこで、次のステップ306において、重畳部17は、ステップ304の処理により行ったマスクデータの配置が妥当であるか否かを、配置したマスクデータ毎に判定する。   As shown in FIG. 16, in the process of step 304, the mask data is superimposed to the area where the pan 44 does not exist actually, so in this area the area where the pan 44 does not exist and the area where the mask data is superimposed. There is a high possibility that the pan 44 is misjudged as being located. Therefore, in the next step 306, the superimposing unit 17 determines, for each of the arranged mask data, whether or not the arrangement of the mask data performed in the process of step 304 is appropriate.

本実施形態では、マスクデータの配置が妥当であるか否かの判定を次のように行う。即ち、配置したマスクデータによるマスクの領域の円周のうち、処理対象画像におけるパン44の画像以外の画像の値(本実施形態では、‘1’)とされている画素(本実施形態では、黒画素)に囲まれている割合が所定値未満である場合に妥当であると判定する。なお、本実施形態では、上記所定値として70%を適用している。従って、例えば、図17に示すように、上記割合が100%及び80%とされている場合は、マスクデータの配置が妥当ではないと判定し、上記割合が60%、20%及び0%(黒画素と全く接していない状態。)の場合は、マスクデータの配置が妥当であると判定する。   In the present embodiment, it is determined as follows whether or not the arrangement of mask data is appropriate. That is, of the circumference of the area of the mask according to the arranged mask data, a pixel (in the present embodiment, “1” in the present embodiment) other than the image of the pan 44 in the processing target image It is determined that the ratio enclosed by the black pixel) is appropriate if it is less than a predetermined value. In the present embodiment, 70% is applied as the predetermined value. Therefore, for example, as shown in FIG. 17, when the ratio is 100% and 80%, it is determined that the arrangement of the mask data is not appropriate, and the ratio is 60%, 20% and 0% ( In the case of no contact with the black pixel at all), it is determined that the arrangement of mask data is appropriate.

次のステップ308において、重畳部17は、ステップ306の処理によって配置が妥当ではないと判定されたマスクデータを2値画像データから除去し、その後に本端数番重処理を終了する。端数番重処理が終了すると、図4に示すステップ116に移行する。   In the next step 308, the superimposing unit 17 removes from the binary image data the mask data determined to be invalid in the arrangement by the process of step 306, and then ends the number-n-th step process. When the round number processing is completed, the process proceeds to step 116 shown in FIG.

図18には、処理対象画像が上記第4画像〜第6画像である場合において、ステップ304〜ステップ308の処理によって最終的にマスクされる位置が処理対象画像と共に示されている。また、図19には、上記第4画像〜第6画像の各処理対象画像にマスクデータが重畳された後の処理対象画像が示されている。なお、図18では、ステップ308の処理によって除去されたマスクデータによるマスクの位置が白い破線で示されている。   In FIG. 18, when the processing target image is the fourth to sixth images, positions to be finally masked by the processing of steps 304 to 308 are shown together with the processing target image. Further, FIG. 19 shows the processing target image after the mask data is superimposed on the processing target images of the fourth to sixth images. In FIG. 18, the position of the mask according to the mask data removed by the process of step 308 is indicated by a white broken line.

図18及び図19に示すように、上記第4画像〜第6画像は、ステップ304〜ステップ308の処理により、パン44の画像が存在しない領域のマスクデータについては除去され、パン44の画像の領域のみについてマスクデータが重畳された状態となる。この結果、パン44がない領域についてはマスクされず、一部のパン44の画像については小さなマスク洩れが見られるものの、殆どのパン44の画像については穴44Aに相当する画像がなくなっている(マスクされている)ことがわかる。従って、これらの処理対象画像に対してパン44の位置を認識する物体位置認識を行うことにより、穴44Aの画像の影響を受けない、若しくは穴44Aの画像の影響が低減された認識を行うことができる。この結果、パン44の個々の位置を、より高精度に認識できるようになる。   As shown in FIGS. 18 and 19, the fourth to sixth images are removed from the mask data of the area where the image of pan 44 does not exist by the processing of steps 304 to 308, and the image of pan 44 is The mask data is superimposed only on the area. As a result, although the area where there is no pan 44 is not masked and a small mask leak is seen for the image of some pans 44, the image corresponding to the hole 44A is lost for the image of most pans 44 ( It is understood that it is masked. Therefore, by performing object position recognition that recognizes the position of the pan 44 on these processing target images, recognition is performed that is not influenced by the image of the hole 44A or that the influence of the image of the hole 44A is reduced. Can. As a result, the individual positions of the pan 44 can be recognized with higher accuracy.

一方、図4に示す物体位置認識のステップ106において肯定判定となった場合、処理対象番重が、今回の物体位置認識処理で対象としている入荷用番重42のうちの最後の入荷用番重42(以下、「最終番重」という。)であると見なしてステップ114に移行する。   On the other hand, if a positive determination is made in step 106 of object position recognition shown in FIG. 4, the processing target number is the last arrival number among the arrival number 42 targeted by the current object position recognition processing. 42 (hereinafter referred to as "final weight") and the process moves to step 114.

ステップ114において、CPU51は、図20に示す最終番重処理を行う。以下、最終番重処理について説明する。なお、錯綜を回避するため、本実施形態では、最終番重におけるパン44の理想的な配置位置(以下、「最終番重配置位置」という。)が予め設定されている場合について説明する。   At step 114, the CPU 51 performs the final stacking process shown in FIG. The following describes the final stacking process. In addition, in order to avoid confusion, in the present embodiment, a case where an ideal arrangement position of the pan 44 in the final stack (hereinafter, referred to as “final stack arrangement position”) is set in advance will be described.

最終番重処理のステップ400において、取得部11は、画像データ記憶領域53Bから最新の距離画像データを読み出し、該距離画像データを前述したように2値化して2値画像データを生成する。次のステップ402において、検出部12は、直近に実行した正番重処理のステップ212の処理によって記憶した位置情報を読み出す。   In step 400 of the final stacking process, the acquisition unit 11 reads the latest distance image data from the image data storage area 53B, and binarizes the distance image data as described above to generate binary image data. In the next step 402, the detection unit 12 reads out the position information stored by the processing of step 212 of the regular number processing performed most recently.

次のステップ404において、重畳部17は、ステップ400の処理によって生成した2値画像データに対して、ステップ402の処理によって読み出した位置情報により示される位置に上記マスクデータを重畳させる。   In the next step 404, the superimposing unit 17 superimposes the mask data on the position indicated by the position information read out in the process of step 402 on the binary image data generated by the process of step 400.

次のステップ406において、重畳部17は、ステップ404の処理によって配置したマスクデータから、上記最終番重配置位置とは異なる位置に対応するマスクデータを除去し、その後に本最終番重処理を終了する。最終番重処理が終了すると、図4に示す物体位置認識処理のステップ116に移行する。   In the next step 406, the superimposing unit 17 removes mask data corresponding to a position different from the final stacking position from the mask data arranged by the processing of step 404, and then ends the final stacking process. Do. When the final stacking process is completed, the process proceeds to step 116 of the object position recognition process shown in FIG.

図21は、直近に実行した正番重処理での処理対象画像が上記第3画像である場合における最終番重処理の説明に供する図である。この場合、直近に実行した正番重処理での処理対象画像が図21の左端に示す画像であり、該正番重処理によって、マスクデータが図21の左から2番目の図に示す位置に重畳される。   FIG. 21 is a diagram for explaining the final stacking process in the case where the processing target image in the regular number stacking process most recently executed is the third image. In this case, the processing target image in the nearest rank process performed most recently is the image shown at the left end of FIG. 21 and the mask data is in the position shown in the second figure from the left in FIG. It is superimposed.

この場合、最終番重処理のステップ400の処理によって取得された2値画像データにより示される処理対象画像は、一例として図21の右から2番目の画像となる。なお、図21の右から2番目の図では、最終番重において、1段目のパン44がなく、2段目〜3段目の合計8個のパン44が収容されている場合について示されている。この場合、最終番重処理のステップ406の処理では、図21の右端の図に示すように、1段目に重畳された全てのマスクデータが除去され、2段目〜3段目に配置したマスクデータが残る。この結果、パン44がない領域についてはマスクされず、一部のパン44の画像については小さなマスク洩れが生じるものの、殆どのパン44の画像については穴44Aに相当する画像がなくなることになる。従って、この処理対象画像に対してパン44の位置を認識する物体位置認識を行うことにより、穴44Aの画像の影響を受けない、若しくは穴44Aの画像の影響が低減された認識を行うことができる。この結果、パン44の個々の位置を、より高精度に認識できるようになる。   In this case, the processing target image indicated by the binary image data acquired by the process of step 400 of the final stacking process is, for example, the second image from the right in FIG. The second drawing from the right in FIG. 21 shows the case where there is no pan 44 of the first stage in the final gear, and a total of eight pans 44 of the second to third stages are accommodated. ing. In this case, in the process of step 406 of the final stacking process, as shown in the right end of FIG. 21, all mask data superimposed in the first stage is removed, and the second to third stages are arranged. Mask data remains. As a result, although an area without the pan 44 is not masked and a small mask leak occurs in the image of a part of the pan 44, an image corresponding to the hole 44A disappears in the image of the most pan 44. Therefore, by performing object position recognition for recognizing the position of the pan 44 with respect to the processing target image, it is possible to perform recognition that is not influenced by the image of the hole 44A or that the influence of the image of the hole 44A is reduced. it can. As a result, the individual positions of the pan 44 can be recognized with higher accuracy.

図4に示す物体位置認識処理のステップ116において、認識部18は、以上のステップ110、ステップ112及びステップ114の何れかの処理によってマスクデータが重畳された2値画像データ(以下、「マスク済み画像データ」という。)を用いて、処理対象番重に収容されているパン44の位置を認識する物体位置認識を行う。本実施形態では、上記物体位置認識として、中央部に穴44Aや凹部がないパンの位置を認識する従来既知の物体位置認識を行っている。なお、本実施形態に係る物体位置認識では、マスク済み画像データにより示される処理対象画像の水平方向及び垂直方向の各方向に対する白画素数の累積値を示すヒストグラムを方向別に作成する。そして、水平方向及び垂直方向の各ヒストグラムの谷部が隣接するパン44の間の境界領域として、各パン44の位置を認識する。しかしながら、物体位置認識は、この方法に限定されるものではなく、2値画像データを用いて複数の物体の各々の位置を認識する方法であれば、如何なる方法を適用してもよい。   In step 116 of the object position recognition process shown in FIG. 4, the recognition unit 18 performs binary image data (hereinafter referred to as “masked”) on which the mask data is superimposed by the process of any of the above steps 110, 112 and 114. Image position recognition is performed to recognize the position of the pan 44 contained in the processing target stack using the image data. In the present embodiment, as the object position recognition, conventionally known object position recognition is performed to recognize the position of the pan without the hole 44A or the recess in the central portion. Note that in the object position recognition according to the present embodiment, histograms indicating the accumulated values of the number of white pixels in each of the horizontal and vertical directions of the processing target image indicated by the masked image data are created for each direction. Then, the position of each pan 44 is recognized as a boundary area between the adjacent pans 44 in which the valleys of the horizontal and vertical histograms are adjacent to each other. However, object position recognition is not limited to this method, and any method may be applied as long as it is a method of recognizing the position of each of a plurality of objects using binary image data.

ところで、物体位置認識では、様々な原因によりパン44の位置を誤認識する場合がある。以下、物体位置認識において誤認識となってしまう原因の具体的な例について説明する。   By the way, in object position recognition, the position of the pan 44 may be erroneously recognized due to various causes. Hereinafter, a specific example of the cause of erroneous recognition in object position recognition will be described.

例えば、一例として図22の左の図に示すように、マスクデータにより示されるマスクの面積がパン44の穴44Aの画像の面積より小さい場合は、物体位置認識において誤認識してしまうことがある。パン44の画像とマスクデータによる画像との間の領域が隣接するパン44の間の空間であると誤認識する場合があるためである。また、一例として図22の右の図に示すように、マスクデータにより示されるマスクの面積がパン44の画像の面積より大きい場合も、物体位置認識において誤認識してしまうことがある。隣接するパン44の間の空間が識別できなくなる場合があるためである。   For example, as shown in the left drawing of FIG. 22 as an example, if the area of the mask indicated by the mask data is smaller than the area of the image of the hole 44A of the pan 44, erroneous recognition may occur in object position recognition. . This is because an area between the image of the pan 44 and the image by the mask data may be erroneously recognized as the space between the adjacent pans 44. Also, as shown in the right drawing of FIG. 22 as an example, if the area of the mask indicated by the mask data is larger than the area of the image of the pan 44, erroneous recognition may occur in object position recognition. This is because the space between adjacent pans 44 may not be distinguishable.

この問題を解決するため、マスクデータにより示されるマスクの大きさを作業者によって指定できるようにしてもよい。この形態の例としては、作業者により、入力部54を介してマスクの大きさを入力するものとし、作業者によって入力部54を介して入力されたマスクの大きさを受付部14により受け付ける形態が例示される。この例では、受付部14によって受け付けたマスクの大きさに応じたマスクデータを重畳部17により生成し、正番重処理、端数番重処理及び最終番重処理において適用する。   In order to solve this problem, the size of the mask indicated by the mask data may be specified by the operator. As an example of this form, the size of the mask is input by the operator via the input unit 54, and the size of the mask input by the operator via the input unit 54 is received by the reception unit 14 Is illustrated. In this example, mask data corresponding to the size of the mask received by the receiving unit 14 is generated by the superimposing unit 17 and applied to the regular number processing, the fractional number counting processing, and the final number counting processing.

また、物体位置認識において誤認識する原因の具体例として、一例として図23に示すように、入荷用番重42の移動に起因して、横列方向や縦列方向に対して一部のパン44のみ大きく位置ずれを起こした場合も、物体位置認識において誤認識することがある。更に、一例として図24に示すように、直前のピッキングによって一部のパン44のみ位置ずれを起こした場合も、前述した端数番重処理ではマスクデータの数がパン44の数より多くなることがあり、この場合も物体位置認識において誤認識することがある。   In addition, as a specific example of the cause of erroneous recognition in object position recognition, as shown in FIG. 23 as an example, due to the movement of the arrival number 42, only a part of the pan 44 in the row direction or the column direction Even when a large positional deviation occurs, an erroneous recognition may occur in object position recognition. Furthermore, as shown in FIG. 24 as an example, even when positional deviation occurs in only a part of the pans 44 due to the previous picking, the number of mask data may be greater than the number of pans 44 in the fractional serial processing described above Also in this case, there is a possibility of misrecognition in object position recognition.

このような誤認識に或る程度対応するため、本実施形態に係る物体位置認識処理では、ステップ116の物体位置認識において誤認識が発生した場合に、該物体位置認識とは異なり、距離画像データを直接用いた物体位置認識を実行する。   In order to cope with such erroneous recognition to some extent, in the object position recognition processing according to the present embodiment, when an erroneous recognition occurs in the object position recognition in step 116, unlike the object position recognition, the distance image data Perform object position recognition directly using

即ち、次のステップ118において、認識部18は、ステップ116の物体位置認識において誤認識が発生したか否かを判定し、否定判定となった場合はステップ120に移行する。なお、本実施形態に係る認識部18は、ステップ118における誤認識が発生したか否かの判定を、認識したパン44の位置の数が想定されるパン44の数とは不一致となるか否かを判定することにより行っている。ここで、上記想定されるパン44の数は、処理対象番重が正番重とされている場合のパン44の数から、それまでに該処理対象番重からピッキングロボット30によってピッキングされたパン44の数を減算すること等により得られる。   That is, in the next step 118, the recognition unit 18 determines whether or not an erroneous recognition has occurred in the object position recognition in step 116. If a negative determination is made, the process proceeds to step 120. Note that the recognition unit 18 according to the present embodiment determines whether the determination as to whether or not an erroneous recognition has occurred in step 118 is not identical to the number of pans 44 where the number of positions of the recognized pan 44 is assumed. It is done by deciding whether or not. Here, the assumed number of pans 44 is the number of pans 44 picked up by the picking robot 30 from the number of the processing target so far from the number of pans 44 when the processing target number is the normal number. It is obtained by subtracting the number 44.

ステップ120において、認識部18は、ステップ116の物体位置認識によって認識したパン44の位置を示す位置情報をピッキングロボット30に送信し、その後にステップ132に移行する。なお、物体位置認識装置10から位置情報を受信すると、ピッキングロボット30は、該位置情報が示すパン44の位置に基づいて、処理対象番重からパン44を1つ取り出して出荷用番重48に収容する。   In step 120, the recognition unit 18 transmits position information indicating the position of the pan 44 recognized by the object position recognition in step 116 to the picking robot 30, and then proceeds to step 132. When the position information is received from the object position recognition apparatus 10, the picking robot 30 takes out one pan 44 from the processing target stack based on the position of the pan 44 indicated by the position information, and sets the pan 44 to the shipping stack weight 48. To accommodate.

一方、ステップ118において肯定判定となった場合は、ステップ116の物体位置認識において誤認識が発生したと見なしてステップ122に移行し、取得部11は、画像データ記憶領域53Bから最新の距離画像データを読み出す。また、ステップ122において、検出部12は、直近に実行した正番重処理のステップ212の処理によって記憶した位置情報を読み出す。そして、ステップ122において、重畳部17は、一例として図25に示すように、読み出した距離画像データに対し、次のようにマスクデータを重畳させる。即ち、該距離画像データが示す距離画像の上記位置情報が示す位置を中心として、所定の大きさ(平面視した場合の面積及び高さを含む。)の上面及び下面の面積が異なる円柱状(円錐の上側を水平に切断して除去した形状)を示す距離画像データをマスクデータとして重畳させる。   On the other hand, if an affirmative determination is made in step 118, it is considered that an erroneous recognition has occurred in the object position recognition in step 116, and the process proceeds to step 122, and the acquisition unit 11 obtains the latest distance image data from the image data storage area 53B. Read out. In addition, in step 122, the detection unit 12 reads out the position information stored by the processing of step 212 of the nearest number process performed most recently. Then, in step 122, as shown in FIG. 25 as an example, the superimposing unit 17 superimposes mask data on the read distance image data as follows. That is, cylindrical shapes having different upper and lower surface areas of a predetermined size (including the area and height when viewed in plan) centering on the position indicated by the position information of the distance image indicated by the distance image data Distance image data showing a shape obtained by cutting the upper side of the cone horizontally and removing it is superimposed as mask data.

なお、ここで距離画像データに対して用いるマスクデータにおいても、2値画像データに対して用いるマスクデータと同様に、認識対象とするパンの穴の大きさによっては物体位置認識において誤認識が生じてしまう場合がある。このため、距離画像データに対して用いるマスクデータの大きさも作業者によって指定できるようにしてもよい。   In the mask data used for the distance image data, as in the case of the mask data used for the binary image data, erroneous recognition occurs in the object position recognition depending on the size of the hole of the pan to be recognized. There is a possibility that Therefore, the size of mask data used for distance image data may also be specified by the operator.

次のステップ124において、認識部18は、以上の処理によってマスクデータが重畳された距離画像データを対象として物体位置認識(以下、「第2物体位置認識」という。)を行う。なお、本実施形態に係る第2物体位置認識では、一例として図26に示すように、以下で定義する横方向のヒストグラム及び縦方向のヒストグラムを作成し、各ヒストグラムの谷部が隣接するパン44の間の境界領域として、各パン44の位置を認識する。ここで、横方向のヒストグラムとは、対応する縦方向の位置における、各距離情報を横方向に平均化又は積算することにより得られるものである。また、縦方向のヒストグラムとは、対応する横方向の位置における、各距離情報を縦方向に平均化又は積算することにより得られるものである。なお、ここでは、上記距離情報として、入荷用番重42の底面(パン44の下面と接触する面)を基準として、該底面からの距離を適用している。但し、第2物体位置認識は、この方法に限定されるものではなく、距離画像データを用いて複数の物体の各々の位置を認識する方法であれば、如何なる方法を適用してもよい。   In the next step 124, the recognition unit 18 performs object position recognition (hereinafter referred to as "second object position recognition") on the distance image data on which the mask data is superimposed by the above processing. In the second object position recognition according to the present embodiment, as shown in FIG. 26 as an example, a histogram in the horizontal direction and a histogram in the vertical direction defined below are created, and the pan 44 has valleys adjacent to each other. The position of each pan 44 is recognized as a boundary area between Here, the histogram in the horizontal direction is obtained by averaging or integrating the pieces of distance information in the horizontal direction at corresponding vertical positions. Further, the histogram in the vertical direction is obtained by averaging or integrating the pieces of distance information in the vertical direction at the corresponding horizontal position. Here, the distance from the bottom surface (the surface in contact with the lower surface of the pan 44) is applied as the distance information, based on the bottom surface (the surface in contact with the lower surface of the pan 44). However, the second object position recognition is not limited to this method, and any method may be applied as long as it is a method of recognizing the positions of a plurality of objects using distance image data.

次のステップ126において、認識部18は、ステップ124の第2物体位置認識において誤認識が発生したか否かを判定し、否定判定となった場合はステップ128に移行する。なお、本実施形態に係る認識部18は、ステップ126における誤認識が発生したか否かの判定も、認識したパン44の位置の数が想定されるパン44の数とは不一致となるか否かを判定することにより行っている。   In the next step 126, the recognition unit 18 determines whether or not an erroneous recognition has occurred in the second object position recognition in step 124. If a negative determination is made, the process proceeds to step 128. Note that the recognition unit 18 according to the present embodiment also determines whether or not the number of recognized positions of the pan 44 is not identical to the expected number of pans 44 whether or not the erroneous recognition in step 126 has occurred. It is done by deciding whether or not.

ステップ128において、認識部18は、ステップ124の第2物体位置認識によって認識したパン44の位置を示す位置情報をピッキングロボット30に送信し、その後にステップ132に移行する。これに応じてピッキングロボット30が1つのパン44のピッキング作業を行うことは、ステップ120の説明において記載した通りである。   In step 128, the recognition unit 18 transmits position information indicating the position of the pan 44 recognized by the second object position recognition in step 124 to the picking robot 30, and then proceeds to step 132. The fact that the picking robot 30 performs the picking operation of one pan 44 in response to this is as described in the description of step 120.

ステップ132において、認識部18は、積層場所40Aに積層されている入荷用番重42の全てのパン44についてピッキングが終了したか否かを判定し、否定判定となった場合はステップ104に戻る。また、ここで肯定判定となった場合には本物体位置認識処理を終了する。   In step 132, the recognition unit 18 determines whether picking has ended for all the pans 44 of the receiving number 42 stacked at the stacking location 40A, and if a negative determination is made, the process returns to step 104. . Further, when the determination is affirmative here, the present object position recognition processing is ended.

一方、ステップ126において肯定判定となった場合は、第2物体位置認識において誤認識が発生したと見なしてステップ130に移行し、認識部18は、予め定められたエラー処理を実行した後、本物体位置認識処理を終了する。なお、本実施形態に係る物体位置認識処理では、ステップ130のエラー処理として、誤認識が発生したことを示す情報を表示部55に表示させる処理を適用しているが、これに限定されるものではない。例えば、ブザーを鳴動させるといった、誤認識が発生したことを報知する他の形態を適用してもよい。   On the other hand, if an affirmative determination is made in step 126, it is considered that an erroneous recognition has occurred in the second object position recognition, and the process proceeds to step 130, and the recognition unit 18 executes a predetermined error process, The object position recognition process ends. In the object position recognition process according to the present embodiment, the process of causing the display unit 55 to display information indicating that an erroneous recognition has occurred is applied as the error process of step 130, but the present invention is limited thereto. is not. For example, another form may be applied to notify that an erroneous recognition has occurred, such as ringing a buzzer.

以上のように、本実施形態では、中央部に穴を有する物体(パン44)を、所定の配列方向に複数収容できる収容体(入荷用番重42)に、物体が上記配列方向に上限数収容された状態で全ての物体を含む物体群領域を撮影した画像の画像データを取得する。また、本実施形態では、取得した画像データが示す物体群領域の上記配列方向両端部の位置を検出する。また、本実施形態では、検出した両端部の間を上記上限数で均等に分割することにより複数の分割領域を導出する。更に、本実施形態では、導出した複数の分割領域内の上記配列方向中央部の位置を物体の各々における穴の位置と推定する。従って、本実施形態によれば、予期しない物体の偏りや広がり等を考慮して物体の位置を認識することができる結果、中央部に穴を有する複数の物体の各々の位置を高精度に認識することができる。   As described above, in the present embodiment, the upper limit number of objects in the arrangement direction is stored in the container (the delivery number 42) that can accommodate a plurality of objects (pans 44) having holes in the center in the predetermined arrangement direction. The image data of the image which image | photographed the object group area | region containing all the objects in the accommodated state is acquired. Further, in the present embodiment, the positions of both ends in the arrangement direction of the object group region indicated by the acquired image data are detected. Further, in the present embodiment, a plurality of divided areas are derived by equally dividing between the detected both ends by the above upper limit number. Furthermore, in the present embodiment, the position of the central portion in the arrangement direction in the plurality of derived divided regions is estimated as the position of the hole in each of the objects. Therefore, according to the present embodiment, the position of the object can be recognized in consideration of an unexpected deviation or spread of the object. As a result, the positions of a plurality of objects having holes in the central portion can be recognized with high accuracy. can do.

特に、本実施形態では、収容体を、物体を上記配列方向として横列方向及び縦列方向の2方向に各々複数収容可能としている。また、本実施形態では、横列方向及び縦列方向の各々別に、物体群領域の上記両端部の位置を検出している。また、本実施形態では、横列方向及び縦列方向の各々別に、検出した両端部の間を、対応する上限数で均等に分割することにより複数の分割領域を導出している。そして、本実施形態では、横列方向及び縦列方向の各々別に、導出した複数の分割領域内の横列方向中央部かつ縦列方向中央部の位置を物体の各々における穴の位置と推定している。従って、本実施形態によれば、収容体に対して平面視2次元状に物体を収容することのできる形態に本発明を適用することができる。   In particular, in the present embodiment, a plurality of containers can be accommodated in each of the two directions, the row direction and the column direction, with the objects in the arrangement direction. Further, in the present embodiment, the positions of the both ends of the object group area are detected separately for each of the row direction and the column direction. Further, in the present embodiment, a plurality of divided areas are derived by equally dividing the detected both ends by the corresponding upper limit number separately for each of the row direction and the column direction. And in this embodiment, the position of the central part in the row direction and the central part in the column direction in the plurality of derived divided regions is estimated to be the position of the hole in each of the objects separately for each of the row direction and the column direction. Therefore, according to the present embodiment, the present invention can be applied to a form in which an object can be accommodated two-dimensionally in a plan view with respect to a container.

特に、本実施形態では、導出した複数の分割領域のうち、横列方向及び縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の上記両端部の位置を更に検出している。また、本実施形態では、導出した複数の分割領域のうち、横列方向及び縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の上記両端部の位置を更に検出している。また、本実施形態では、検出した、横列方向に沿った複数の分割領域群及び縦列方向に沿った複数の分割領域群の各々の両端部の間を、対応する物体の数で均等に分割することにより複数の分割領域を再度導出している。そして、本実施形態では、横列方向及び縦列方向の各々別に、再度導出した複数の分割領域内の横列方向中央部かつ縦列方向中央部の位置を物体の各々における穴の位置と推定している。従って、本実施形態によれば、横列方向及び縦列方向の少なくとも一方の方向に対して一部の物体の位置がずれている場合であっても、複数の物体の各々の位置を高精度に認識することができる。   In particular, in the present embodiment, the positions of the both ends of each of the plurality of divided area groups along one of the row direction and the column direction among the plurality of derived divided areas are further detected. There is. Further, in the present embodiment, the positions of the both ends of each of the plurality of divided area groups along the other arrangement direction in the row direction or the column direction among the plurality of derived divided areas are further detected. There is. Further, in the present embodiment, between the two ends of each of a plurality of divided area groups along the row direction and a plurality of divided area groups along the vertical direction detected are equally divided according to the number of corresponding objects. Thus, a plurality of divided areas are derived again. And in this embodiment, the position of the central part in the row direction and the central part in the column direction in the plurality of divided regions derived again is estimated as the position of the hole in each of the objects separately for each of the row direction and the column direction. Therefore, according to the present embodiment, even when the position of a part of the objects is shifted with respect to at least one of the row direction and the column direction, each position of the plurality of objects is recognized with high accuracy. can do.

また、本実施形態では、収容体に収容されている物体の数が上限数より少ない場合、収容体に物体が上記上限数収容されている場合に推定した穴の位置のうち、物体の画像以外の画像に囲まれている割合が所定値未満の位置を、物体の各々の穴の位置と推定している。従って、本実施形態によれば、収容体に収容されている物体の数が上限数より少ない場合であっても、複数の物体の各々の位置を高精度に認識することができる。   Further, in the present embodiment, when the number of objects contained in the container is less than the upper limit number, the position of the hole estimated when the above-described upper limit number of objects are contained in the container is other than the image of the object The position where the proportion enclosed by the image of is less than a predetermined value is estimated as the position of each hole of the object. Therefore, according to the present embodiment, even when the number of objects contained in the containing body is smaller than the upper limit number, the positions of the plurality of objects can be recognized with high accuracy.

また、本実施形態では、撮影によって距離画像データを生成し、該距離画像データに基づいて、物体の領域と他の領域とを区別する2値画像データを上記画像データとして取得している。従って、本実施形態によれば、距離画像データに基づく2値画像データを用いて、複数の物体の各々の位置を高精度に認識することができる。   Further, in the present embodiment, distance image data is generated by photographing, and based on the distance image data, binary image data for distinguishing an area of an object from another area is acquired as the image data. Therefore, according to the present embodiment, it is possible to recognize each position of a plurality of objects with high accuracy using binary image data based on distance image data.

また、本実施形態では、上記上限数の入力を受け付け、受け付けた上限数を用いて、上記分割領域を導出している。従って、本実施形態によれば、上記上限数が異なる複数種類の収容体を対象とすることができる。   Further, in the present embodiment, the input of the upper limit number is accepted, and the divided area is derived using the accepted upper limit number. Therefore, according to the present embodiment, a plurality of types of containers with different upper limit numbers can be targeted.

更に、本実施形態では、物体として円環状のものを適用している。従って、本実施形態によれば、円環状の物体を対象として、複数の物体の各々の位置を高精度に認識することができる。   Furthermore, in the present embodiment, an annular object is applied as the object. Therefore, according to the present embodiment, it is possible to recognize the position of each of a plurality of objects with high accuracy for a toroidal object.

なお、上記実施形態では、正番重処理を実行する際に番重が正番重状態(物体が上限数収容された状態)であることを前提としていたが、これに限定されるものではない。番重が正番重に満たない状態であっても、番重内の物体が横列方向及び縦列方向に片寄せされており、かつ物体の数が既知であれば正番重処理は実行可能である。   In the above-described embodiment, it is assumed that the weight is in the normal weight state (the state in which the upper limit number of objects is stored) when performing the normal number processing, but the present invention is not limited to this. . Even if the weight is less than the true weight, the objects within the weight are offset in the row direction and the column direction, and if the number of objects is known, the true weight processing is feasible. is there.

また、上記実施形態では、本発明の物体として中央に穴44Aを有するパン44を適用した場合を説明したが、これに限定されるものではない。例えば、ドーナツ、中央部が窪んだパン等の食品の他、タイヤ、ナット、ワッシャ、Oリング等を本発明の物体として適用するようにしてもよい。この場合も、上記実施形態と同様の効果を奏することができる。   Moreover, although the said embodiment demonstrated the case where the pan 44 which has the hole 44A in the center was applied as an object of this invention, it is not limited to this. For example, a tire, a nut, a washer, an O-ring, or the like may be applied as the object of the present invention, in addition to a food product such as a donut or a bread in which a central portion is recessed. Also in this case, the same effects as the above embodiment can be obtained.

また、上記実施形態では、入荷用番重42にパン44を2次元状に収容する場合を説明したが、これに限定されるものではない。例えば、入荷用番重42にパン44を1次元状、即ち1列分のみ収容するようにしてもよい。   Moreover, although the case where the pan 44 was accommodated in the two-dimensional form in the delivery number 42 was described in the said embodiment, it is not limited to this. For example, the pan 44 may be accommodated in a one-dimensional shape, that is, only one row in the receiving number 42.

また、上記実施形態では、正番重処理のステップ208の処理において、図9に示した分割領域の導出を行った後、図10及び図11に示した分割領域の調整を行う場合を説明したが、これに限定されるものではない。例えば、上記第1画像及び第2画像のように、上記境界線の輪郭が概ね矩形状となっている場合等には、上記分割領域の調整を行わないようにしてもよい。   Further, in the above embodiment, in the processing of step 208 of the regular number processing, after the division areas shown in FIG. 9 are derived, adjustment of the division areas shown in FIGS. 10 and 11 is described. However, it is not limited to this. For example, as in the case of the first image and the second image, the adjustment of the divided area may not be performed when the outline of the boundary is substantially rectangular.

また、上記実施形態では、カメラ32として距離画像データを取得するカメラを適用した場合を説明したが、これに限定されるものではない。例えば、カメラ32として市販のカラー画像やモノクロ画像を撮影するカメラを適用してもよい。この場合、カメラ32により、画像データとして複数階調のデータが取得されることになるため、該複数階調のデータを予め定められた閾値で二値化したデータを画像データとして用いる。この場合、カメラ32として、比較的安価なカラー画像やモノクロ画像を撮影するカメラを用いることができるので、物体振り分けシステムを低コストで構築することができる。   Moreover, although the case where the camera which acquires distance image data was applied as the camera 32 was demonstrated in the said embodiment, it is not limited to this. For example, as the camera 32, a camera for capturing a commercially available color image or monochrome image may be applied. In this case, since data of a plurality of gradations is acquired as image data by the camera 32, data obtained by binarizing the data of the plurality of gradations with a predetermined threshold value is used as image data. In this case, as the camera 32 can be used a camera for capturing relatively inexpensive color images and monochrome images, the object sorting system can be constructed at low cost.

また、上記実施形態では、重畳部17により、推定部15によって推定された位置の全てにマスクデータを重畳させた後に、該マスクデータによるマスクの配置が妥当であるか否かを判定する場合を説明したが、これに限定されるものではない。例えば、重畳部17により、推定部15によって推定された位置の各々についてマスクの配置が妥当であるか否かを予め判定し、妥当であると判定された位置のみにマスクデータを重畳するようにしてもよい。   In the above embodiment, after the mask data is superimposed on all the positions estimated by the estimation unit 15 by the superposition unit 17, it is determined whether or not the arrangement of the mask based on the mask data is appropriate. Although explained, it is not limited to this. For example, the superimposing unit 17 determines in advance whether or not the arrangement of the mask is appropriate for each of the positions estimated by the estimating unit 15, and superimposes mask data only on the positions determined to be appropriate. May be

また、上記実施形態では、カメラ32をピッキング場所40Bの上方に設け、ピッキング場所40Bに設けられた入荷用番重42からパン44をピッキングロボット30によってピッキングする場合を説明したが、これに限定されるものではない。例えば、カメラ32を積層場所40Aの上方に設け、積層場所40Aに設けられた入荷用番重42からパン44をピッキングロボット30によってピッキングするようにしてもよい。更に、カメラ32を積層場所40A及びピッキング場所40Bの双方の上方に設け、積層場所40A及びピッキング場所40Bの何れかに設けられた入荷用番重42から選択的にパン44をピッキングロボット30によってピッキングするようにしてもよい。   In the above embodiment, the camera 32 is provided above the picking place 40B, and the picking robot 30 picks the pan 44 from the receiving number 42 provided at the picking place 40B. However, the present invention is not limited thereto. It is not a thing. For example, the camera 32 may be provided above the stacking place 40A, and the picking robot 30 may pick the pan 44 from the receiving number 42 provided at the stacking place 40A. Furthermore, the camera 32 is provided above both the stacking station 40A and the picking station 40B, and the picking robot 30 selectively picks the pan 44 from the stocking weights 42 provided at any of the stacking station 40A and the picking station 40B. You may do it.

また、上記実施形態では、物体位置認識プログラム53Aを記憶部53に予め記憶(インストール)しておく態様を説明したが、これに限定されるものではない。例えば、物体位置認識プログラム53Aを、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc ROM)等の記録媒体から媒体読み書き装置を介してコンピュータ50の記憶部53に読み込む形態としてもよく、ネットワークを介して外部装置から記憶部53にダウンロードする形態としてもよい。   Further, in the above embodiment, the aspect in which the object position recognition program 53A is stored (installed) in the storage unit 53 in advance has been described, but the present invention is not limited to this. For example, the object position recognition program 53A may be read from a recording medium such as a compact disc read only memory (CD-ROM) or a digital versatile disc ROM (DVD-ROM) into the storage unit 53 of the computer 50 via the medium read / write device. It may be downloaded from the external device to the storage unit 53 via the network.

本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。   All documents, patent applications and technical standards described herein are as specific as when each document, patent application and technical standard is specifically and individually indicated to be incorporated by reference. Incorporated by reference in the book.

以上の実施形態に関し、更に以下の付記を開示する。   Further, the following appendices will be disclosed regarding the above embodiment.

(付記1)
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部と、
前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部と、
前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部と、
前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部と、
を含む推定装置。
(Supplementary Note 1)
The object is accommodated in a container capable of accommodating a plurality of objects provided with holes or recesses in the central portion in a predetermined arrangement direction intersecting with the direction of the plan view in a direction in which the holes or the recesses can be visually recognized in plan view An acquisition unit configured to acquire image data of an image obtained by photographing an object group area including all the objects contained in the container in a state in which the predetermined number of objects are accommodated in the arrangement direction;
A detection unit that detects positions of both ends in the arrangement direction of the object group region indicated by the image data acquired by the acquisition unit;
A deriving unit that derives a plurality of divided areas by equally dividing the distance between the both ends detected by the detection unit by the predetermined number;
An estimation unit configured to estimate the position of the central portion in the arrangement direction in the plurality of divided areas derived by the derivation unit as the position of the hole or the recess in each of the objects;
Estimator including.

(付記2)
前記収容体は、前記物体を、前記所定の配列方向として横列方向及び縦列方向の2方向に各々複数収容可能とされ、
前記検出部は、前記横列方向及び前記縦列方向の各々別に、前記物体群領域の前記両端部の位置を検出し、
前記導出部は、前記横列方向及び前記縦列方向の各々別に、前記検出部によって検出された前記両端部の間を、対応する前記所定数で均等に分割することにより複数の分割領域を導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記1記載の推定装置。
(Supplementary Note 2)
A plurality of the containers can be accommodated in each of the row direction and the column direction as the predetermined arrangement direction.
The detection unit detects positions of the both ends of the object group area separately for each of the row direction and the column direction,
The deriving unit derives a plurality of divided areas by equally dividing the distance between the both ends detected by the detecting unit by the corresponding predetermined number separately for each of the row direction and the column direction.
The estimation unit determines the positions of the central portion in the row direction and the central portion in the column direction in the plurality of divided areas derived by the derivation unit separately for each of the row direction and the column direction as the holes in each of the objects Or estimate the position of the recess,
The estimation device according to appendix 1.

(付記3)
前記検出部は、前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置、及び前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置を更に検出し、
前記導出部は、前記検出部によって検出された、前記横列方向に沿った複数の分割領域群及び前記縦列方向に沿った複数の分割領域群の各々の前記両端部の間を、対応する前記物体の数で均等に分割することにより前記複数の分割領域を再度導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって再度導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記2記載の推定装置。
(Supplementary Note 3)
The detection unit is a position of the both ends of each of a plurality of divided area groups along one of the row direction and the column direction among the plurality of divided areas derived by the derivation unit. And the positions of the both ends of each of a plurality of divided area groups along the arrangement direction in the row direction or the column direction among the plurality of divided areas derived by the derivation unit are further detected And
The deriving unit corresponds to the object corresponding between the both ends of each of a plurality of divided area groups along the row direction and a plurality of divided area groups along the vertical direction detected by the detection unit. Deriving the plurality of divided areas again by equally dividing by the number of
The estimation unit determines the positions of the central portion in the row direction and the central portion in the column direction in each of the plurality of divided regions derived again by the derivation unit separately for each of the row direction and the column direction in each of the objects. Estimate the position of the hole or recess
The estimation device according to appendix 2.

(付記4)
前記推定部は、前記収容体に収容されている前記物体の数が前記所定数より少ない場合、前記収容体に前記物体が前記所定数収容されている場合に推定した前記穴又は凹部の位置のうち、前記物体の画像以外の画像に囲まれている割合が所定値未満の位置を、前記物体の各々における前記穴又は凹部の位置と推定する、
付記1〜付記3の何れか1項記載の推定装置。
(Supplementary Note 4)
When the number of the objects contained in the container is smaller than the predetermined number, the estimation unit estimates the position of the hole or the recess estimated when the predetermined number is stored in the container. Among them, a position at which the proportion surrounded by an image other than the image of the object is less than a predetermined value is estimated as the position of the hole or recess in each of the objects.
The estimation device according to any one of supplementary notes 1 to 3.

(付記5)
前記撮影部は、撮影によって距離画像データを生成するものであり、
前記取得部は、前記距離画像データに基づいて、前記物体の領域と他の領域とを区別する2値画像データを前記画像データとして取得する、
付記1〜付記4の何れか1項記載の推定装置。
(Supplementary Note 5)
The imaging unit generates distance image data by imaging.
The acquisition unit acquires, as the image data, binary image data that distinguishes the area of the object from another area based on the distance image data.
The estimation device according to any one of supplementary notes 1 to 4.

(付記6)
前記所定数の入力を受け付ける受付部を更に含み、
前記導出部は、前記受付部によって受け付けられた所定数を用いて、前記分割領域を導出する、
付記1〜付記5の何れか1項記載の推定装置。
(Supplementary Note 6)
The system further includes a receiving unit that receives the predetermined number of inputs,
The derivation unit derives the divided area using the predetermined number received by the reception unit.
The estimation device according to any one of supplementary notes 1 to 5.

(付記7)
前記物体は、円環状である、
付記1〜付記6の何れか1項記載の推定装置。
(Appendix 7)
The object is annular,
The estimation device according to any one of supplementary notes 1 to 6.

(付記8)
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部と、
前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部と、
前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部と、
前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部と、
前記画像データにおける前記推定部により推定された位置に基づいて、前記穴又は凹部をマスクした前記画像データを用いて前記物体の配置位置を認識する認識部と、
を含む物体位置認識装置。
(Supplementary Note 8)
The object is accommodated in a container capable of accommodating a plurality of objects provided with holes or recesses in the central portion in a predetermined arrangement direction intersecting with the direction of the plan view in a direction in which the holes or the recesses can be visually recognized in plan view An acquisition unit configured to acquire image data of an image obtained by photographing an object group area including all the objects contained in the container in a state in which the predetermined number of objects are accommodated in the arrangement direction;
A detection unit that detects positions of both ends in the arrangement direction of the object group region indicated by the image data acquired by the acquisition unit;
A deriving unit that derives a plurality of divided areas by equally dividing the distance between the both ends detected by the detection unit by the predetermined number;
An estimation unit configured to estimate the position of the central portion in the arrangement direction in the plurality of divided areas derived by the derivation unit as the position of the hole or the recess in each of the objects;
A recognition unit that recognizes the arrangement position of the object using the image data obtained by masking the hole or the recess based on the position estimated by the estimation unit in the image data;
An object position recognition device including:

(付記9)
前記収容体は、前記物体を、前記所定の配列方向として横列方向及び縦列方向の2方向に各々複数収容可能とされ、
前記検出部は、前記横列方向及び前記縦列方向の各々別に、前記物体群領域の前記両端部の位置を検出し、
前記導出部は、前記横列方向及び前記縦列方向の各々別に、前記検出部によって検出された前記両端部の間を、対応する前記所定数で均等に分割することにより複数の分割領域を導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記8記載の物体位置認識装置。
(Appendix 9)
A plurality of the containers can be accommodated in each of the row direction and the column direction as the predetermined arrangement direction.
The detection unit detects positions of the both ends of the object group area separately for each of the row direction and the column direction,
The deriving unit derives a plurality of divided areas by equally dividing the distance between the both ends detected by the detecting unit by the corresponding predetermined number separately for each of the row direction and the column direction.
The estimation unit determines the positions of the central portion in the row direction and the central portion in the column direction in the plurality of divided areas derived by the derivation unit separately for each of the row direction and the column direction as the holes in each of the objects Or estimate the position of the recess,
The object position recognition device according to appendix 8.

(付記10)
前記検出部は、前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置、及び前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置を更に検出し、
前記導出部は、前記検出部によって検出された、前記横列方向に沿った複数の分割領域群及び前記縦列方向に沿った複数の分割領域群の各々の前記両端部の間を、対応する前記物体の数で均等に分割することにより前記複数の分割領域を再度導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって再度導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記9記載の物体位置認識装置。
(Supplementary Note 10)
The detection unit is a position of the both ends of each of a plurality of divided area groups along one of the row direction and the column direction among the plurality of divided areas derived by the derivation unit. And the positions of the both ends of each of a plurality of divided area groups along the arrangement direction in the row direction or the column direction among the plurality of divided areas derived by the derivation unit are further detected And
The deriving unit corresponds to the object corresponding between the both ends of each of a plurality of divided area groups along the row direction and a plurality of divided area groups along the vertical direction detected by the detection unit. Deriving the plurality of divided areas again by equally dividing by the number of
The estimation unit determines the positions of the central portion in the row direction and the central portion in the column direction in each of the plurality of divided regions derived again by the derivation unit separately for each of the row direction and the column direction in each of the objects. Estimate the position of the hole or recess
An object position recognition device according to appendix 9.

(付記11)
前記推定部は、前記収容体に収容されている前記物体の数が前記所定数より少ない場合、前記収容体に前記物体が前記所定数収容されている場合に推定した前記穴又は凹部の位置のうち、前記物体の画像以外の画像に囲まれている割合が所定値未満の位置を、前記物体の各々における前記穴又は凹部の位置と推定する、
付記8〜付記10の何れか1項記載の物体位置認識装置。
(Supplementary Note 11)
When the number of the objects contained in the container is smaller than the predetermined number, the estimation unit estimates the position of the hole or the recess estimated when the predetermined number is stored in the container. Among them, a position at which the proportion surrounded by an image other than the image of the object is less than a predetermined value is estimated as the position of the hole or recess in each of the objects.
An object position recognition device according to any one of supplementary notes 8 to 10.

(付記12)
前記撮影部は、撮影によって距離画像データを生成するものであり、
前記取得部は、前記距離画像データに基づいて、前記物体の領域と他の領域とを区別する2値画像データを前記画像データとして取得する、
付記8〜付記11の何れか1項記載の物体位置認識装置。
(Supplementary Note 12)
The imaging unit generates distance image data by imaging.
The acquisition unit acquires, as the image data, binary image data that distinguishes the area of the object from another area based on the distance image data.
An object position recognition device according to any one of supplementary notes 8 to 11.

(付記13)
前記所定数の入力を受け付ける受付部を更に含み、
前記導出部は、前記受付部によって受け付けられた所定数を用いて、前記分割領域を導出する、
付記8〜付記12の何れか1項記載の物体位置認識装置。
(Supplementary Note 13)
The system further includes a receiving unit that receives the predetermined number of inputs,
The derivation unit derives the divided area using the predetermined number received by the reception unit.
An object position recognition device according to any one of supplementary notes 8 to 12.

(付記14)
前記物体は、円環状である、
付記8〜付記13の何れか1項記載の物体位置認識装置。
(Supplementary Note 14)
The object is annular,
The object position recognition device according to any one of appendices 8 to 13.

(付記15)
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得し、
取得した画像データが示す前記物体群領域の前記配列方向両端部の位置を検出し、
検出した前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出し、
導出した複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
ことを含む処理をコンピュータに実行させるための推定プログラム。
(Supplementary Note 15)
The object is accommodated in a container capable of accommodating a plurality of objects provided with holes or recesses in the central portion in a predetermined arrangement direction intersecting with the direction of the plan view in a direction in which the holes or the recesses can be visually recognized in plan view Image data of an image obtained by photographing an object group area including all the objects contained in the container in a state of being accommodated in a predetermined number in the arrangement direction is acquired,
Detecting positions of both ends in the arrangement direction of the object group area indicated by the acquired image data;
A plurality of divided areas are derived by equally dividing between the detected both ends by the predetermined number,
Estimating the position of the central portion in the arrangement direction in the plurality of derived divided regions as the position of the hole or recess in each of the objects;
Program for making a computer execute processing including

(付記16)
前記収容体は、前記物体を、前記所定の配列方向として横列方向及び縦列方向の2方向に各々複数収容可能とされ、
前記横列方向及び前記縦列方向の各々別に、前記物体群領域の前記両端部の位置を検出し、
前記横列方向及び前記縦列方向の各々別に、検出した前記両端部の間を、対応する前記所定数で均等に分割することにより複数の分割領域を導出し、
前記横列方向及び前記縦列方向の各々別に、導出した複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記15記載の推定プログラム。
(Supplementary Note 16)
A plurality of the containers can be accommodated in each of the row direction and the column direction as the predetermined arrangement direction.
The position of the both ends of the object group area is detected separately for each of the row direction and the column direction,
A plurality of divided areas are derived by equally dividing between the detected both ends by the corresponding predetermined number separately for each of the row direction and the column direction.
In each of the row direction and the column direction, the position of the row direction central portion and the column direction central portion in the plurality of derived divided regions is estimated as the position of the hole or the recess in each of the objects.
A presumption program given in appendix 15.

(付記17)
導出した複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置、及び導出した複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置を更に検出し、
検出した、前記横列方向に沿った複数の分割領域群及び前記縦列方向に沿った複数の分割領域群の各々の前記両端部の間を、対応する前記物体の数で均等に分割することにより前記複数の分割領域を再度導出し、
前記横列方向及び前記縦列方向の各々別に、再度導出した複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
付記16記載の推定プログラム。
(Supplementary Note 17)
The positions of the both ends of each of the plurality of divided area groups in the row direction and the column direction among the plurality of divided areas which are derived, and the plurality of divided areas which are derived And detecting the positions of the both ends of each of a plurality of divided area groups along the arrangement direction in the row direction or the column direction.
By dividing equally between the two ends of each of the plurality of divided area groups along the row direction and the plurality of divided area groups along the vertical direction, the detected number of objects is the same. Derive multiple divisions again,
In each of the row direction and the column direction, the positions of the row direction central portion and the column direction central portion in the plurality of divided regions derived again are estimated to be the positions of the holes or recesses in each of the objects.
The estimation program according to appendix 16.

(付記18)
前記収容体に収容されている前記物体の数が前記所定数より少ない場合、前記収容体に前記物体が前記所定数収容されている場合に推定した前記穴又は凹部の位置のうち、前記物体の画像以外の画像に囲まれている割合が所定値未満の位置を、前記物体の各々における前記穴又は凹部の位置と推定する、
付記15〜付記17の何れか1項記載の推定プログラム。
(Appendix 18)
When the number of the objects contained in the container is smaller than the predetermined number, the position of the object in the hole or the recess estimated when the predetermined number of the objects are contained in the container Estimating the position of the hole or the recess in each of the objects as the position where the proportion surrounded by images other than the image is less than a predetermined value,
APPENDIX 15. The estimation program according to any one of appendixes 15 to 17.

(付記19)
前記撮影部は、撮影によって距離画像データを生成するものであり、
前記距離画像データに基づいて、前記物体の領域と他の領域とを区別する2値画像データを前記画像データとして取得する、
付記15〜付記18の何れか1項記載の推定プログラム。
(Appendix 19)
The imaging unit generates distance image data by imaging.
The binary image data for distinguishing the area of the object from the other area is acquired as the image data based on the distance image data.
Appendix 15. The estimation program according to any one of appendixes 15 to 18.

(付記20)
前記所定数の入力を受け付け、
受け付けた所定数を用いて、前記分割領域を導出する、
付記15〜付記19の何れか1項記載の推定プログラム。
(Supplementary Note 20)
Accept the predetermined number of inputs,
Deriving the divided area using the received predetermined number
The estimation program according to any one of appendices 15 to 19.

(付記21)
前記物体は、円環状である、
付記15〜付記20の何れか1項記載の推定プログラム。
(Supplementary Note 21)
The object is annular,
Appendix 15. The estimation program according to any one of appendices 15 to 20.

10 物体位置認識装置
11 取得部
12 検出部
13 導出部
14 受付部
15 推定部
17 重畳部
18 認識部
20 推定装置
30 ピッキングロボット
32 カメラ
42 入荷用番重
44 パン
44A 穴
48 出荷用番重
50 コンピュータ
51 CPU
52 メモリ
53 記憶部
53A 物体位置認識プログラム
53A1 取得プロセス
53A2 検出プロセス
53A3 導出プロセス
53A4 受付プロセス
53A5 推定プロセス
53A6 重畳プロセス
53A7 認識プロセス
53B 画像データ記憶領域
54 入力部
55 表示部
90 物体振り分けシステム
DESCRIPTION OF SYMBOLS 10 object position recognition apparatus 11 acquisition part 12 detection part 13 derivation part 14 reception part 15 estimation part 17 superimposition part 18 recognition part 20 recognition device 20 picking robot 32 camera 42 delivery number 44 pan 44A hole 48 shipping number 50 computer 51 CPU
52 memory 53 storage unit 53A object position recognition program 53A1 acquisition process 53A2 detection process 53A3 derivation process 53A4 reception process 53A5 estimation process 53A6 superposition process 53A7 recognition process 53B image data storage area 54 input unit 55 display unit 90 object distribution system

Claims (8)

中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部と、
前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部と、
前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部と、
前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部と、
を含む推定装置。
The object is accommodated in a container capable of accommodating a plurality of objects provided with holes or recesses in the central portion in a predetermined arrangement direction intersecting with the direction of the plan view in a direction in which the holes or the recesses can be visually recognized in plan view An acquisition unit configured to acquire image data of an image obtained by photographing an object group area including all the objects contained in the container in a state in which the predetermined number of objects are accommodated in the arrangement direction;
A detection unit that detects positions of both ends in the arrangement direction of the object group region indicated by the image data acquired by the acquisition unit;
A deriving unit that derives a plurality of divided areas by equally dividing the distance between the both ends detected by the detection unit by the predetermined number;
An estimation unit configured to estimate the position of the central portion in the arrangement direction in the plurality of divided areas derived by the derivation unit as the position of the hole or the recess in each of the objects;
Estimator including.
前記収容体は、前記物体を、前記所定の配列方向として横列方向及び縦列方向の2方向に各々複数収容可能とされ、
前記検出部は、前記横列方向及び前記縦列方向の各々別に、前記物体群領域の前記両端部の位置を検出し、
前記導出部は、前記横列方向及び前記縦列方向の各々別に、前記検出部によって検出された前記両端部の間を、対応する前記所定数で均等に分割することにより複数の分割領域を導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
請求項1記載の推定装置。
A plurality of the containers can be accommodated in each of the row direction and the column direction as the predetermined arrangement direction.
The detection unit detects positions of the both ends of the object group area separately for each of the row direction and the column direction,
The deriving unit derives a plurality of divided areas by equally dividing the distance between the both ends detected by the detecting unit by the corresponding predetermined number separately for each of the row direction and the column direction.
The estimation unit determines the positions of the central portion in the row direction and the central portion in the column direction in the plurality of divided areas derived by the derivation unit separately for each of the row direction and the column direction as the holes in each of the objects Or estimate the position of the recess,
The estimation device according to claim 1.
前記検出部は、前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか一方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置、及び前記導出部によって導出された複数の分割領域のうち、前記横列方向及び前記縦列方向の何れか他方の配列方向に沿った複数の分割領域群の各々毎の前記両端部の位置を更に検出し、
前記導出部は、前記検出部によって検出された、前記横列方向に沿った複数の分割領域群及び前記縦列方向に沿った複数の分割領域群の各々の前記両端部の間を、対応する前記物体の数で均等に分割することにより前記複数の分割領域を再度導出し、
前記推定部は、前記横列方向及び前記縦列方向の各々別に、前記導出部によって再度導出された複数の分割領域内の前記横列方向中央部かつ前記縦列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
請求項2記載の推定装置。
The detection unit is a position of the both ends of each of a plurality of divided area groups along one of the row direction and the column direction among the plurality of divided areas derived by the derivation unit. And the positions of the both ends of each of a plurality of divided area groups along the arrangement direction in the row direction or the column direction among the plurality of divided areas derived by the derivation unit are further detected And
The deriving unit corresponds to the object corresponding between the both ends of each of a plurality of divided area groups along the row direction and a plurality of divided area groups along the vertical direction detected by the detection unit. Deriving the plurality of divided areas again by equally dividing by the number of
The estimation unit determines the positions of the central portion in the row direction and the central portion in the column direction in each of the plurality of divided regions derived again by the derivation unit separately for each of the row direction and the column direction in each of the objects. Estimate the position of the hole or recess
The estimation device according to claim 2.
前記推定部は、前記収容体に収容されている前記物体の数が前記所定数より少ない場合、前記収容体に前記物体が前記所定数収容されている場合に推定した前記穴又は凹部の位置のうち、前記物体の画像以外の画像に囲まれている割合が所定値未満の位置を、前記物体の各々における前記穴又は凹部の位置と推定する、
請求項1〜請求項3の何れか1項記載の推定装置。
When the number of the objects contained in the container is smaller than the predetermined number, the estimation unit estimates the position of the hole or the recess estimated when the predetermined number is stored in the container. Among them, a position at which the proportion surrounded by an image other than the image of the object is less than a predetermined value is estimated as the position of the hole or recess in each of the objects.
The estimation device according to any one of claims 1 to 3.
前記撮影部は、撮影によって距離画像データを生成するものであり、
前記取得部は、前記距離画像データに基づいて、前記物体の領域と他の領域とを区別する2値画像データを前記画像データとして取得する、
請求項1〜請求項4の何れか1項記載の推定装置。
The imaging unit generates distance image data by imaging.
The acquisition unit acquires, as the image data, binary image data that distinguishes the area of the object from another area based on the distance image data.
The estimation apparatus in any one of Claims 1-4.
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得する取得部と、
前記取得部によって取得された画像データが示す前記物体群領域の前記配列方向両端部の位置を検出する検出部と、
前記検出部によって検出された前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出する導出部と、
前記導出部によって導出された複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する推定部と、
前記画像データにおける前記推定部により推定された位置に基づいて、前記穴又は凹部をマスクした前記画像データを用いて前記物体の配置位置を認識する認識部と、
を含む物体位置認識装置。
The object is accommodated in a container capable of accommodating a plurality of objects provided with holes or recesses in the central portion in a predetermined arrangement direction intersecting with the direction of the plan view in a direction in which the holes or the recesses can be visually recognized in plan view An acquisition unit configured to acquire image data of an image obtained by photographing an object group area including all the objects contained in the container in a state in which the predetermined number of objects are accommodated in the arrangement direction;
A detection unit that detects positions of both ends in the arrangement direction of the object group region indicated by the image data acquired by the acquisition unit;
A deriving unit that derives a plurality of divided areas by equally dividing the distance between the both ends detected by the detection unit by the predetermined number;
An estimation unit configured to estimate the position of the central portion in the arrangement direction in the plurality of divided areas derived by the derivation unit as the position of the hole or the recess in each of the objects;
A recognition unit that recognizes the arrangement position of the object using the image data obtained by masking the hole or the recess based on the position estimated by the estimation unit in the image data;
An object position recognition device including:
前記推定部によって推定された位置で、かつマスクすることが妥当であると判定した位置に予め定められたマスクデータによりマスクする重畳部を更に含み、
前記認識部は、前記重畳部によって前記穴又は凹部がマスクされた前記画像データを用いて前記物体の配置位置を認識する、
請求項6記載の物体位置認識装置。
The image processing apparatus further includes a superimposing unit that performs masking with predetermined mask data at a position estimated by the estimation unit and at a position where it is determined that masking is appropriate.
The recognition unit recognizes the arrangement position of the object using the image data in which the hole or the recess is masked by the overlapping unit.
The object position recognition device according to claim 6.
中央部に穴又は凹部が設けられた物体を、平面視で前記穴又は凹部が視認可能な向きで、平面視の方向と交差する所定の配列方向に複数収容できる収容体に、前記物体が前記配列方向に所定数収容された状態で、前記収容体に収容された全ての前記物体を含む物体群領域を撮影部で撮影した画像の画像データを取得し、
取得した画像データが示す前記物体群領域の前記配列方向両端部の位置を検出し、
検出した前記両端部の間を前記所定数で均等に分割することにより複数の分割領域を導出し、
導出した複数の分割領域内の前記配列方向中央部の位置を前記物体の各々における前記穴又は凹部の位置と推定する、
ことを含む処理をコンピュータに実行させるための推定プログラム。
The object is accommodated in a container capable of accommodating a plurality of objects provided with holes or recesses in the central portion in a predetermined arrangement direction intersecting with the direction of the plan view in a direction in which the holes or the recesses can be visually recognized in plan view Image data of an image obtained by photographing an object group area including all the objects contained in the container in a state of being accommodated in a predetermined number in the arrangement direction is acquired,
Detecting positions of both ends in the arrangement direction of the object group area indicated by the acquired image data;
A plurality of divided areas are derived by equally dividing between the detected both ends by the predetermined number,
Estimating the position of the central portion in the arrangement direction in the plurality of derived divided regions as the position of the hole or recess in each of the objects;
Program for making a computer execute processing including
JP2015176016A 2015-09-07 2015-09-07 Estimation device, object position recognition device and estimation program Active JP6523883B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015176016A JP6523883B2 (en) 2015-09-07 2015-09-07 Estimation device, object position recognition device and estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015176016A JP6523883B2 (en) 2015-09-07 2015-09-07 Estimation device, object position recognition device and estimation program

Publications (2)

Publication Number Publication Date
JP2017054199A JP2017054199A (en) 2017-03-16
JP6523883B2 true JP6523883B2 (en) 2019-06-05

Family

ID=58316575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015176016A Active JP6523883B2 (en) 2015-09-07 2015-09-07 Estimation device, object position recognition device and estimation program

Country Status (1)

Country Link
JP (1) JP6523883B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6893429B2 (en) * 2017-03-21 2021-06-23 株式会社富士通アドバンストエンジニアリング Object detection method, object detection program and object detection device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5504234B2 (en) * 2011-09-28 2014-05-28 日本山村硝子株式会社 Box filling inspection method and box filling inspection apparatus
JP6151562B2 (en) * 2013-05-24 2017-06-21 株式会社ブレイン Article identification system and its program

Also Published As

Publication number Publication date
JP2017054199A (en) 2017-03-16

Similar Documents

Publication Publication Date Title
CN108009675B (en) Goods packing method, device and system
CN109584307B (en) System and method for improving calibration of intrinsic parameters of a camera
JP6176388B2 (en) Image identification device, image sensor, and image identification method
CN1949270B (en) Image processing apparatus
CN108154506A (en) A kind of hex nut automatic testing method
CN110035281B (en) Dead pixel detection method and device and electronic equipment
CN107066638B (en) Position detection device, position detection method, information processing program, and recording medium
CN103824275A (en) System and method for finding saddle point-like structures in an image and determining information from the same
CN110288619B (en) Vision-based sunflower module surface screw hole position detection method
KR101583423B1 (en) Method for calibrating distortion of image in camera
US9628659B2 (en) Method and apparatus for inspecting an object employing machine vision
US20110164129A1 (en) Method and a system for creating a reference image using unknown quality patterns
JP5360369B2 (en) Picking apparatus and method
JP6523883B2 (en) Estimation device, object position recognition device and estimation program
JP5950317B1 (en) Code recognition system, code recognition method, code recognition program, and package sorting system
KR20060115023A (en) Image code and method and apparatus for recognizing thereof
CN102024264A (en) Dimensional-histogram-statistic-based touch pen color recognition method
CN108335308A (en) A kind of orange automatic testing method, system and intelligent robot retail terminal
CN111242963B (en) Container contour detection method and device
CN116958058A (en) Lens dirt detection method and device and image detection equipment
KR101574195B1 (en) Auto Calibration Method for Virtual Camera based on Mobile Platform
JP2010151582A (en) Camera calibration target and camera calibration method
CN107545563B (en) Strip punching counting system and counting method
CN111860136B (en) Package positioning method, device, equipment and computer readable storage medium
JP3358997B2 (en) Engraved mark identification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190426

R150 Certificate of patent or registration of utility model

Ref document number: 6523883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350