JP6052103B2 - Article recognition apparatus and article recognition equipment - Google Patents

Article recognition apparatus and article recognition equipment Download PDF

Info

Publication number
JP6052103B2
JP6052103B2 JP2013174936A JP2013174936A JP6052103B2 JP 6052103 B2 JP6052103 B2 JP 6052103B2 JP 2013174936 A JP2013174936 A JP 2013174936A JP 2013174936 A JP2013174936 A JP 2013174936A JP 6052103 B2 JP6052103 B2 JP 6052103B2
Authority
JP
Japan
Prior art keywords
article
height
image
container
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013174936A
Other languages
Japanese (ja)
Other versions
JP2015043175A (en
Inventor
淳 倉山
淳 倉山
淳 味生
淳 味生
朋也 坪田
朋也 坪田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daifuku Co Ltd
Original Assignee
Daifuku Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daifuku Co Ltd filed Critical Daifuku Co Ltd
Priority to JP2013174936A priority Critical patent/JP6052103B2/en
Publication of JP2015043175A publication Critical patent/JP2015043175A/en
Application granted granted Critical
Publication of JP6052103B2 publication Critical patent/JP6052103B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、上面が開放された容器に収容された直方体形状の物品を認識対象とし、前記物品を収容した前記容器の上方からの撮像画像である基本画像から、物品上面の位置及び当該物品上面の平面視姿勢を認識する物品認識装置に関する。   The present invention recognizes a rectangular parallelepiped-shaped article housed in a container having an open top surface, and recognizes the position of the article top surface and the top surface of the article from a basic image that is a captured image from above the container housing the article. The present invention relates to an article recognition apparatus that recognizes a planar view posture.

物品の位置を認識する技術として、例えば、下記の特許文献1には、物品の形状データから画像上の物品上面の輪郭を示す矩形モデル(テンプレート)を生成するとともに、基本画像(画像)から物品の形状を強調した二値のエッジ画像を作成し、当該矩形モデルとエッジ画像とのベクトル相関により作成した物品候補データと、エッジ画像から作成したエッジを構成する線分データとから線分探索により物品の正確な位置と姿勢を決定する技術が開示されている。   As a technique for recognizing the position of an article, for example, in Patent Document 1 below, a rectangular model (template) indicating an outline of the upper surface of an article on an image is generated from the shape data of the article, and the article is obtained from a basic image (image). A binary edge image that emphasizes the shape of the image is created, and a line segment search is performed from the candidate article data created by vector correlation between the rectangular model and the edge image, and the line segment data that forms the edge created from the edge image. A technique for determining an accurate position and posture of an article is disclosed.

また、対象物の位置認識技術として、撮像画像の中から予め登録されているテンプレート画像にマッチングする領域を検出する方法も考えられる。例えば、下記の特許文献2には、人物の顔等の単一又は複数のテンプレート画像を予め登録し、撮像画像の中から、当該所定のテンプレート画像にマッチングするマッチング領域を検出する技術が開示されている。このように撮像画像中からテンプレート画像にマッチングする領域を検出する方法では、テンプレート画像の外形だけでなく、当該テンプレート画像に含まれる模様等も一致している領域を検出する為、該当する領域の検出精度が高い。また、予め登録されているテンプレート画像を用いる為、マッチング処理にかかる時間も比較的短い。これらのことより、撮像画像中からテンプレート画像にマッチングする領域を検出する方法は、物品の位置を認識する技術として有効である。   Further, as a position recognition technique for an object, a method of detecting a region matching a template image registered in advance from captured images is also conceivable. For example, Patent Document 2 below discloses a technique for registering a single or a plurality of template images such as a person's face in advance and detecting a matching region that matches the predetermined template image from the captured image. ing. In this way, in the method for detecting a region that matches the template image from the captured image, not only the outline of the template image but also the pattern that is included in the template image is detected. High detection accuracy. Further, since a template image registered in advance is used, the time required for the matching process is relatively short. For these reasons, the method of detecting a region matching the template image from the captured image is effective as a technique for recognizing the position of the article.

ところで、上述のような対象物の位置認識技術は、ピッキング装置によって複数の物品が収納されている容器から一の物品を選択してピッキングする際にも用いられる。具体的には、撮像装置で上方から容器内(物品上面)を撮像し、当該撮像画像中から一の物品の上面に対応する領域を検出する際に用いられる。しかし、このような場面では、ピッキング位置に容器を搬送する際等に容器内で物品が横転してしまうことにより、様々な収納姿勢の物品が混在する恐れがある。例えば、物品が直方体形状である場合、短辺を高さ方向に沿わせた収納姿勢の物品や、長辺を高さ方向に沿わせた収納姿勢の物品が混在する恐れがある。すなわち、このような場面では、当該物品を構成する6面全部が物品の上面となり得る。よって、ピッキング装置において、上述のようなテンプレート画像を用いたマッチング処理を行う場合には、どの収納姿勢であっても物品上面の領域を検出できるように、物品上面となり得る物品の各面の全部についてテンプレート画像を登録しておく必要がある。その為、多品種の物品を扱う設備において、物品のピッキングをピッキング装置にて行う場合には、上述のようなテンプレート画像を用いたマッチング処理によって物品の位置を認識しようとすると、多品種の物品のそれぞれについて各面の全部のテンプレート画像を登録しなければならず、登録作業に手間がかかるという問題がある。また、登録されるテンプレート画像のデータ量も大きくなり好ましくない。一方、登録するテンプレート画像の数を減らすと、当該登録されていないテンプレート画像に対応する面が上面となっている場合は、当該物品の位置を認識することができず、物品の認識率が低下する恐れがある。   By the way, the above-described object position recognition technology is also used when picking one article from a container in which a plurality of articles are stored by a picking device. Specifically, it is used when the inside of the container (the upper surface of the article) is imaged from above by the imaging device and an area corresponding to the upper surface of one article is detected from the captured image. However, in such a situation, there is a possibility that articles in various storage postures are mixed because the articles roll over in the container when the container is transported to the picking position. For example, when the article has a rectangular parallelepiped shape, there may be a mixture of articles having a storage posture with the short side along the height direction and articles with a storage posture having the long side along the height direction. That is, in such a scene, all six surfaces constituting the article can be the upper surface of the article. Therefore, in the picking device, when performing the matching process using the template image as described above, all the surfaces of the article that can be the article upper surface can be detected so that the region of the article upper surface can be detected in any storage posture. It is necessary to register a template image for. For this reason, when picking an article with a picking device in an equipment that handles various kinds of articles, if the position of the article is to be recognized by the matching process using the template image as described above, the various kinds of articles are used. Therefore, it is necessary to register all the template images of each surface for each of the above, and there is a problem that the registration work takes time. In addition, the amount of data of the registered template image is undesirably large. On the other hand, if the number of template images to be registered is reduced, if the surface corresponding to the unregistered template image is the top surface, the position of the article cannot be recognized, and the recognition rate of the article decreases. There is a fear.

特開2007−140729号公報JP 2007-140729 A 特開2010−021817号公報JP 2010-021817 A

そこで、テンプレート画像の登録作業を簡素化するとともに、物品の認識率の低下を抑制する物品認識装置の実現が望まれる。   Therefore, it is desired to realize an article recognition apparatus that simplifies the template image registration operation and suppresses a reduction in the article recognition rate.

本発明に係る、上面が開放された容器に収容された直方体形状の物品を認識対象とし、前記物品を収容した前記容器の上方からの撮像画像である基本画像から、物品上面の位置及び当該物品上面の平面視姿勢を認識する物品認識装置の特徴構成は、前記物品の6個の矩形面のうちの一部の矩形面の画像に対応するテンプレート画像及び前記物品の1つの頂点から延びる3辺についての寸法情報を予め取得する情報取得部と、パターンマッチング処理とエッジ検出処理とを実行する物品探索処理部と、前記物品探索処理部の検出情報と、前記寸法情報とから、前記物品が前記矩形面のいずれの面を上面として収納されているかの収納姿勢を判別するとともに、前記物品の底面が属している基準面に対する前記物品上面の高さを算出する収納状態判別部と、前記物品探索処理部の検出情報に基づいて、前記物品存在領域の前記基本画像内における位置及び前記基本画像に対する傾きから、前記物品上面の平面位置及び平面視姿勢を特定する平面位置特定部と、を備え、前記パターンマッチング処理は、前記基本画像内に含まれる、前記テンプレート画像との一致度が予め定められた閾値以上である領域を物品存在領域として検出する処理であり、前記エッジ検出処理は、前記基本画像内のエッジ成分を抽出して生成したエッジ画像を生成し、前記各矩形面の外形に基づいて生成した矩形モデルとの関係が予め定められた条件に合致する領域を、前記物品存在領域として検出する処理であり、前記物品探索処理部は、物品探索指令が指令されると前記パターンマッチング処理を実行し、当該パターンマッチング処理において前記物品存在領域を検出できない場合に前記エッジ検出処理を実行する点にある。   According to the present invention, a rectangular parallelepiped shaped article accommodated in a container having an open top surface is a recognition target, and the position of the article top surface and the article are determined from a basic image that is a captured image from above the container containing the article. The feature configuration of the article recognition apparatus that recognizes the planar view posture of the upper surface includes a template image corresponding to an image of a part of the six rectangular faces of the article and three sides extending from one vertex of the article. From the information acquisition part which acquires dimension information about beforehand, the article search processing part which performs pattern matching processing and edge detection processing, the detection information of the article search processing part, and the dimension information, the article is A storage state for determining a storage posture of which rectangular surface is stored as an upper surface and calculating a height of the upper surface of the article with respect to a reference plane to which the bottom surface of the article belongs Based on detection information of the separate part and the article search processing part, a plane position for specifying a plane position and a planar view posture of the article upper surface from a position in the basic image of the article existence area and an inclination with respect to the basic image The pattern matching process is a process for detecting an area included in the basic image and having a matching degree with the template image that is equal to or greater than a predetermined threshold as an article presence area, The edge detection process generates an edge image generated by extracting an edge component in the basic image, and an area in which a relationship with a rectangular model generated based on the outer shape of each rectangular surface matches a predetermined condition Is detected as the article presence region, and the article search processing unit executes the pattern matching process when an article search command is issued, In the pattern matching process in terms of executing the edge detection processing if it can not detect the article existence region.

この特徴構成によれば、物品探索処理部により実行されるパターンマッチング処理若しくはエッジ検出処理により検出された物品存在領域から、認識対象である物品上面の平面位置及び平面視での物品上面の配置姿勢である平面視姿勢を特定することができる。また、当該物品存在領域と物品の寸法情報とから、認識対象である物品の収納姿勢を判別することができるとともに、当該物品上面の基準面からの高さを算出することができる。すなわち、認識対象である物品上面についての基準面に対する3次元位置を認識することができる。また、容器底面からの基準面の高さを予め与えることで(基準面の高さがゼロの場合も含む)、認識対象である物品上面の容器内における3次元位置を認識することが可能となる。   According to this characteristic configuration, the planar position of the article upper surface to be recognized and the arrangement attitude of the article upper surface in plan view from the article presence area detected by the pattern matching process or edge detection process executed by the article search processing unit. It is possible to specify a planar view posture. Further, the storage posture of the article to be recognized can be determined from the article presence area and the dimension information of the article, and the height of the article upper surface from the reference plane can be calculated. That is, it is possible to recognize the three-dimensional position with respect to the reference surface for the upper surface of the article to be recognized. Further, by giving the height of the reference surface from the container bottom surface in advance (including the case where the height of the reference surface is zero), it is possible to recognize the three-dimensional position in the container of the upper surface of the article to be recognized. Become.

また、上記構成によれば、直方体形状の物品の一部の矩形面の画像に対応するテンプレート画像を用いて、パターンマッチング処理を実行する。すなわち、物品の矩形面に模様や柄が施されている場合には、テンプレート画像にも模様や柄が含まれる。よって、当該パターンマッチング処理では、矩形面の外形だけでなく、模様や柄等も含んだテンプレート画像との一致度が予め定められた閾値以上である領域を検出する為、物品上面に対応する物品存在領域を高精度に検出することができる。また、パターンマッチング処理では、予め取得したテンプレート画像を用いる為、当該マッチング処理にかかる時間を短縮することができる。   Moreover, according to the said structure, a pattern matching process is performed using the template image corresponding to the image of the one part rectangular surface of a rectangular parallelepiped article. That is, when a pattern or pattern is applied to the rectangular surface of the article, the template image also includes the pattern or pattern. Therefore, in the pattern matching process, not only the outer shape of the rectangular surface but also the region corresponding to the template image including a pattern, a pattern, etc. is detected in an area corresponding to the upper surface of the article. The existence area can be detected with high accuracy. Further, since the template image acquired in advance is used in the pattern matching process, the time required for the matching process can be shortened.

また、上記構成によれば、物品の6個の矩形面のうちの一部(5個以下)の矩形面の画像に対応するテンプレート画像を取得して、パターンマッチング処理を実行する。よって、物品上面となり得る矩形面(6個の矩形面)のすべてについてテンプレート画像を取得しなくてよい為、6個の矩形面のすべてのテンプレート画像を予め用意する必要がない。その為、物品の矩形面の画像を予めテンプレート画像として登録しておく作業の簡略化を図ることができるとともに、当該登録したテンプレート画像のデータ量を抑制することができる。   Moreover, according to the said structure, the template image corresponding to the image of a part (5 or less) rectangular surface of the six rectangular surfaces of an article | item is acquired, and a pattern matching process is performed. Therefore, since it is not necessary to acquire template images for all the rectangular surfaces (six rectangular surfaces) that can be the upper surface of the article, it is not necessary to prepare all template images for the six rectangular surfaces in advance. Therefore, it is possible to simplify the operation of registering an image of the rectangular surface of the article as a template image in advance, and to suppress the data amount of the registered template image.

一方、取得するテンプレート画像の数を減らすと、認識対象である物品上面の画像に対応するテンプレート画像を取得しなかった場合には、パターンマッチング処理では当該認識対象の物品上面に対応する物品存在領域を検出することができない。その為、物品上面の認識率が低下するおそれがある。しかし、上記構成によれば、パターンマッチング処理において物品存在領域を検出できない場合にエッジ検出処理を実行する為、当該物品上面に対応する物品存在領域を検出できる可能性がある。よって、予め取得するテンプレート画像の数を減らした場合であっても、物品存在領域の検出率が低下するのを抑制することができ、当該物品存在領域に対応する物品上面の位置についての認識率の低下も抑制することができる。その結果、テンプレート画像の登録作業を簡素化するとともに、物品の認識率の低下を抑制する物品認識装置を実現できる。   On the other hand, if the number of template images to be acquired is reduced, if the template image corresponding to the image of the article upper surface that is the recognition target is not acquired, the pattern matching process performs the article existence region corresponding to the article upper surface of the recognition target. Cannot be detected. Therefore, the recognition rate on the upper surface of the article may be reduced. However, according to the above configuration, since the edge detection process is executed when the article existence area cannot be detected in the pattern matching process, there is a possibility that the article existence area corresponding to the upper surface of the article can be detected. Therefore, even when the number of template images acquired in advance is reduced, it is possible to suppress a decrease in the detection rate of the article presence area, and the recognition rate for the position of the article upper surface corresponding to the article presence area. Can also be suppressed. As a result, it is possible to realize an article recognition apparatus that simplifies the template image registration operation and suppresses a reduction in the recognition rate of the article.

ここで、前記容器内における前記物品の前記収納姿勢が予め定められ、前記テンプレート画像は、当該予め定められている前記収納姿勢において上面となる前記矩形面の模様に対応する画像である構成とすると好適である。   Here, the storage posture of the article in the container is determined in advance, and the template image is an image corresponding to the pattern of the rectangular surface that is the upper surface in the predetermined storage posture. Is preferred.

この構成によれば、物品上面となり得る可能性が高い矩形面の画像に対応するテンプレート画像を取得して、パターンマッチング処理を実行する。物品は、基本的には、予め定められた収納姿勢となっている為、物品の上面は、6つの矩形面のうちの特定の1つの矩形面である可能性が高い。よって、予め定められた収納姿勢で上面となる矩形面についてのテンプレート画像を登録しておけば、パターンマッチング処理において物品存在領域を検出できる可能性が大きくなり、その結果、パターンマッチング処理を向上させることができる。   According to this configuration, a template image corresponding to an image of a rectangular surface that is likely to be the upper surface of the article is acquired, and the pattern matching process is executed. Since the article basically has a predetermined storage posture, there is a high possibility that the upper surface of the article is a specific one of the six rectangular faces. Therefore, if a template image for a rectangular surface that is the upper surface in a predetermined storage posture is registered, the possibility that an article presence area can be detected in the pattern matching process increases, and as a result, the pattern matching process is improved. be able to.

また、前記基本画像における各画素について、当該各画素に対応する位置での物品上面の容器底面からの高さを示す高さ情報を取得して、同一の高さ情報を有する画素が最も多く含まれる高さである画素群により形成される平面を仮想基準面とする仮想基準面設定部と、前記仮想基準面に底面が属する物品であるベース上段物品が存在すると仮定した場合に、前記収納姿勢として仮定される3つの異なる仮定収納姿勢のそれぞれについて、当該仮定収納姿勢において上面となる面の前記容器底面からの高さと同一の高さ情報を有する画素を前記基本画像から抽出して単一高さ画像を生成する単一高さ画像生成部と、をさらに備え、前記物品探索処理部は、前記パターンマッチング処理においては、前記単一高さ画像内に含まれる、前記テンプレート画像との一致度が予め定められた閾値以上である領域を前記物品存在領域として検出し、前記エッジ検出処理においては、前記単一高さ画像内に含まれるエッジ成分を抽出して生成したエッジ画像を生成し、前記矩形モデルとの関係が予め定められた条件に合致する領域を前記物品存在領域として検出し、前記収納状態判別部は、前記単一高さ画像のうち、前記物品探索処理部にて前記物品存在領域が検出された単一高さ画像に対応する前記仮定収納姿勢を前記収納姿勢として判別するとともに、前記仮想基準面を前記基準面と判別する構成とすると好適である。   In addition, for each pixel in the basic image, the height information indicating the height from the container bottom surface of the upper surface of the article at the position corresponding to each pixel is acquired, and the most pixels having the same height information are included. The storage orientation when it is assumed that there is a virtual reference plane setting unit having a virtual reference plane as a plane formed by a pixel group having a height and a base upper article that is an article to which the bottom belongs to the virtual reference plane For each of the three different assumed storage postures assumed to be, a pixel having the same height information as the height from the bottom surface of the container in the assumed storage posture is extracted from the basic image to obtain a single height. A single-height image generating unit that generates a height image, wherein the article search processing unit includes the template included in the single-height image in the pattern matching processing. A region where the degree of coincidence with the image is equal to or greater than a predetermined threshold is detected as the article presence region, and in the edge detection process, an edge component included in the single height image is extracted and generated An edge image is generated, and an area where the relationship with the rectangular model matches a predetermined condition is detected as the article existence area, and the storage state determination unit includes the article in the single height image. It is preferable that the assumed storage posture corresponding to the single height image in which the article existence area is detected by the search processing unit is determined as the storage posture and the virtual reference surface is determined as the reference surface. is there.

この構成によれば、物品上面が存在し得る容器底面からの高さが仮想基準面の高さ情報と物品の寸法情報とから推定され、その推定される高さの情報を有する画素から単一高さ画像が生成される。物品探索処理部は、当該生成した単一高さ画像に探索範囲を絞り、当該単一高さ画像から物品存在領域を探索する。これにより、パターンマッチング処理やエッジ検出処理時の探索範囲を、基本画像全体から、物品存在領域が検出される可能性が比較的高い単一高さ画像に絞り込むことができる為、物品の認識率の低下を抑制しつつ、パターンマッチング処理やエッジ検出処理時の処理負担を軽減して、処理時間の短縮化を図ることができる。   According to this configuration, the height from the bottom surface of the container where the upper surface of the article can exist is estimated from the height information of the virtual reference plane and the dimension information of the article, and the pixel having the estimated height information is single-ended. A height image is generated. The article search processing unit narrows the search range to the generated single height image, and searches for the article presence area from the single height image. As a result, the search range during pattern matching processing and edge detection processing can be narrowed down from the entire basic image to single-height images that have a relatively high possibility of detecting the article presence area, so that the article recognition rate It is possible to reduce the processing load at the time of pattern matching processing and edge detection processing and to shorten the processing time while suppressing the decrease in the processing time.

また、単一高さ画像中に物品存在領域が検出された場合には、当該単一高さ画像を構成する画素が有する高さ情報が示す高さに物品上面が存在することになる為、物品は仮想基準面に底面が属していることになり、当該単一高さ画像を構成する画素が有する高さ情報を、認識対象である物品上面の容器底面からの高さとすることができるとともに、仮想基準面を当該認識対象の物品の底面が実際に属している基準面とすることができる。そして、当該物品存在領域が検出された単一高さ画像に対応する仮定収納姿勢を当該物品の実際の収納姿勢であるとすることができる。これにより、容器底面からの基準面の高さを予め与えなくても、認識対象である物品上面の容器内における3次元位置と収納姿勢を認識することができるとともに、当該認識対象である物品の載置面の容器底面からの高さ及び当該載置面における当該物品の収納姿勢も併せて認識することができる。   In addition, when the article presence area is detected in the single height image, the article upper surface exists at the height indicated by the height information of the pixels constituting the single height image. The bottom of the article belongs to the virtual reference plane, and the height information of the pixels constituting the single height image can be set as the height from the bottom of the container on the top of the article to be recognized. The virtual reference plane can be the reference plane to which the bottom surface of the recognition target article actually belongs. Then, the assumed storage posture corresponding to the single height image in which the article presence area is detected can be the actual storage posture of the article. Thereby, without giving the height of the reference surface from the container bottom in advance, the three-dimensional position and the storage posture in the container on the upper surface of the article to be recognized can be recognized, and the article to be recognized can be recognized. The height of the placement surface from the bottom of the container and the storage posture of the article on the placement surface can also be recognized.

また、前記容器には、物品上面が同一の高さに属するように配置された同一形状の複数の物品により形成される物品層が高さ方向に積層される状態で収容され、前記仮想基準面設定部は、物品上面が前記仮想基準面に属する物品であるベース段物品の底面が属する面を仮想基準下面としてさらに設定し、前記単一高さ画像生成部は、前記仮想基準下面上での前記ベース段物品の前記収納姿勢として仮定される3つの新たな仮定収納姿勢のそれぞれについて、当該新たな仮定収納姿勢において上面となる面の前記容器底面からの高さと同一の高さ情報を有する画素を前記基本画像から抽出して3つの新たな単一高さ画像を生成し、前記収納状態判別部は、前記3つの新たな単一高さ画像のいずれかに、前記物品探索処理部にて前記物品存在領域が検出された場合には、当該物品存在領域が検出された単一高さ画像に対応する前記仮定収納姿勢を前記収納姿勢として判別するとともに、前記仮想基準下面を前記基準面と判別する構成とすると好適である。   Further, the container accommodates an article layer formed by a plurality of articles having the same shape arranged so that the upper surface of the article belongs to the same height, stacked in the height direction, and the virtual reference plane The setting unit further sets the surface to which the bottom surface of the base stage article, which is an article whose upper surface belongs to the virtual reference plane, belongs as the virtual reference lower surface, and the single height image generation unit For each of the three new assumed storage postures assumed as the storage posture of the base article, pixels having the same height information as the height from the container bottom surface of the upper surface in the new assumed storage posture Are extracted from the basic image to generate three new single-height images, and the storage state determination unit adds one of the three new single-height images to the article search processing unit. The article existence area When it is detected, the assumed storage posture corresponding to the single height image in which the article presence area is detected is determined as the storage posture, and the virtual reference lower surface is determined as the reference surface. Is preferred.

この構成によれば、仮想基準面に底面が属するベース上段物品の物品上面だけでなく、当該ベース上段物品で形成される物品層よりも一段下の物品層に属する物品(ベース段物品)上面の容器内における3次元位置も認識することができる。これにより、ベース上段物品が存在せずにベース段物品が存在する場合に、再度、仮想基準面を設定し直して新たな処理を一から実行しなくても、ベース段物品の物品上面の3次元位置を認識することができる。よって、物品上面の位置認識処理を開始してから、物品上面の位置を認識するまでにかかる時間を短縮することができる。   According to this configuration, not only the upper surface of the article of the base upper article whose bottom surface belongs to the virtual reference plane, but also the upper surface of the article (base article) belonging to the article layer one level lower than the article layer formed of the upper article of the base. A three-dimensional position in the container can also be recognized. As a result, when there is no base upper article but there is a base article, the virtual reference plane is set again, and a new process is not executed again from the beginning. The dimension position can be recognized. Therefore, it is possible to reduce the time taken from the start of the article upper surface position recognition process to the recognition of the article upper surface position.

また、前記物品探索処理部は、前記単一高さ画像生成部により生成された前記仮定収納姿勢に応じた単一高さ画像のうち、高さの大きい単一高さ画像から順に、前記パターンマッチング処理及び前記エッジ検出処理を実行する構成とすると好適である。   In addition, the article search processing unit, in order from the single height image having the largest height among the single height images according to the assumed storage posture generated by the single height image generation unit, the pattern It is preferable to perform a matching process and the edge detection process.

この構成によれば、パターンマッチング処理及びエッジ検出処理によって検出される物品存在領域は、容器内において最上面となる物品上面の位置に対応し、物品認識装置は、容器内において最上面となる物品上面の位置及び当該物品上面の平面視姿勢を認識することができる。よって、例えば、物品認識装置の認識結果を用いて、ピッキング装置等で上方から容器内の物品を取り出す際に、最上段の物品から順に取り出すことができる。   According to this configuration, the article presence area detected by the pattern matching process and the edge detection process corresponds to the position of the upper surface of the article that is the uppermost surface in the container, and the article recognition device is the article that is the uppermost surface in the container. The position of the upper surface and the planar view posture of the upper surface of the article can be recognized. Therefore, for example, when the article in the container is taken out from above by the picking apparatus or the like using the recognition result of the article recognition device, it can be taken out in order from the uppermost article.

また、前記収納状態判別部は、前記仮想基準面若しくは前記仮想基準下面の容器底面からの高さと、前記基準面に対する物品上面の高さとから、物品上面の容器底面からの高さを算出し、前記収納状態判別部により算出された前記物品上面の容器底面からの高さが、前記寸法情報に含まれる前記3辺の長さのうち最も短い辺の長さよりも小さいか否かを判定する底面チェック部をさらに備え、前記底面チェック部が、前記物品上面の高さが前記物品の最も短い辺の長さよりも小さいと判定した場合には、エラー出力を行う構成とすると好適である。   Further, the storage state determination unit calculates the height from the container bottom surface of the article upper surface from the height from the container bottom surface of the virtual reference plane or the virtual reference lower surface and the height of the article upper surface with respect to the reference plane, A bottom surface for determining whether the height from the container bottom surface of the article upper surface calculated by the storage state determination unit is smaller than the shortest side length among the three side lengths included in the dimension information. It is preferable that the apparatus further includes a check unit, and if the bottom surface check unit determines that the height of the article upper surface is smaller than the length of the shortest side of the article, an error output is performed.

この構成によれば、収納状態判別部により算出された物品上面の容器底面からの高さが、物品の3辺の長さのうち最も短い辺の長さよりも小さい場合、すなわち、物品の底面が容器底面に属する一段目の物品上面が認識されたものの、その物品の底面が容器底面よりも下に存在するといった実際にはあり得ない算出結果となった場合に、底面チェック部がエラー出力を行う。これにより、物品認識装置が、実際には物品上面が存在し得ないような位置を、物品上面の高さ方向の位置として誤って認識することを抑制することができる。   According to this configuration, when the height from the container bottom surface of the article upper surface calculated by the storage state determination unit is smaller than the length of the shortest side among the three sides of the article, that is, the article bottom surface is If the top surface of the first article belonging to the bottom of the container is recognized, but the calculation result is not possible, such as the bottom of the article being below the bottom of the container, the bottom check unit will output an error output. Do. Thereby, it can suppress that an article recognition device recognizes erroneously a position where the article upper surface cannot actually exist as a position of the article upper surface in the height direction.

また、前記収納状態判別部は、前記寸法情報に基づいて、前記物品の3辺の中に、当該各辺の長さの差が予め定められた判別限界値よりも小さい一対の類似辺を含むと判別した場合であって、前記一対の類似辺のうちの短い方の辺を高さ方向に沿わせた姿勢を前記収納姿勢として判別したときには、当該判別の結果である前記収納姿勢を、前記一対の類似辺のうちの長い方の辺を高さ方向に沿わせた姿勢に更新する構成とすると好適である。   The storage state determination unit includes a pair of similar sides in which the difference in length of each side is smaller than a predetermined determination limit value in the three sides of the article based on the dimension information. And when the posture of the shorter side of the pair of similar sides along the height direction is determined as the storage posture, the storage posture as a result of the determination is It is preferable that the longer side of the pair of similar sides is updated to a posture along the height direction.

ところで、ピッキング装置として、複数のノズルを備え、物品上面を吸着する際に用いる吸着ノズルの組み合わせを、物品上面の面積に応じて変更するようなものを使用する場合、面積の大きい物品上面に対応した吸着ノズルの組み合わせで、面積の小さい物品上面を吸着しようとした場合は、吸着できない恐れがある。一方、面積の小さい物品上面に対応した吸着ノズルの組み合わせで、面積の大きい物品上面を吸着しようとした場合は吸着できる可能性が高い。このようなピッキング装置等に、本発明に係る物品認識装置の認識結果を用いる場合であっても、上記構成によれば、直方体形状の物品の3つの異なる矩形面の中に、共通の辺と一対の各類似辺とによって構成される一組の類似する矩形面が含まれる場合には、収納状態判別部は、当該類似の矩形面のうちの面積の小さい方の面が物品上面となる姿勢を判別結果とする。よって、これらの認識結果を用いたピッキング装置においても、類似する矩形面のうちの面積の小さい方の面に対応した吸着ノズルの組み合わせでピッキングを行う。従って、実際には、面積が小さい方の面を上面とした姿勢で容器内に物品が収納されているにも関わらず、面積が大きい方の面を上面とした姿勢であると誤って判別されそうな紛らわしい姿勢であっても、最終的な判別結果としては小さい方の面を上面とした姿勢であると更新される為、ピッキング装置は適切にピッキング処理を行うことができる。   By the way, when the picking device is equipped with a plurality of nozzles and the combination of the suction nozzles used for sucking the upper surface of the article is changed according to the area of the upper surface of the article, it corresponds to the upper surface of the article having a large area. If the upper surface of the article having a small area is to be sucked with the combination of the suction nozzles, the suction may not be possible. On the other hand, if the upper surface of an article having a large area is to be adsorbed by a combination of suction nozzles corresponding to the upper surface of the article having a small area, there is a high possibility that it can be adsorbed. Even when the recognition result of the article recognition apparatus according to the present invention is used for such a picking apparatus or the like, according to the above configuration, the common side and the three different rectangular surfaces of the rectangular parallelepiped article When a set of similar rectangular surfaces constituted by a pair of similar sides is included, the storage state determination unit is configured such that the smaller surface of the similar rectangular surfaces is the article upper surface. Is the discrimination result. Therefore, even in the picking apparatus using these recognition results, picking is performed with a combination of suction nozzles corresponding to the smaller surface of the similar rectangular surfaces. Therefore, in reality, although the article is stored in the container in a posture with the surface with the smaller area as the upper surface, it is erroneously determined as the posture with the surface with the larger area as the upper surface. Even in such a misleading posture, the final discrimination result is updated to the posture with the smaller surface as the upper surface, so that the picking device can appropriately perform the picking process.

また、前記平面位置特定部により特定された前記物品上面の平面位置及び平面視姿勢と、前記寸法情報とにより定まる前記基本画像における前記物品上面に対応する矩形領域が、前記基本画像における前記容器の存在領域の内部に包含されるか否かを判別する物品壁際チェック部をさらに備え、前記物品壁際チェック部が、前記矩形領域が前記容器の存在領域の内部に包含されないと判別した場合には、エラー出力を行う構成とすると好適である。   Further, a rectangular area corresponding to the upper surface of the article in the basic image determined by the planar position and planar view posture of the upper surface of the article specified by the planar position specifying unit and the dimensional information is an area of the container in the basic image. Further comprising an article wall edge check unit for determining whether or not included in the presence area, and when the article wall edge check part determines that the rectangular area is not included in the container existence area, A configuration that performs error output is preferable.

この構成によれば、基本画像における物品上面に対応する矩形領域が、基本画像における容器の存在領域の内部に包含されない場合、すなわち、物品上面に対応する矩形領域の一部が、容器外にはみ出しているといった実際にはあり得ない認識結果となった場合に、物品壁際チェック部がエラー出力を行う。これにより、物品認識装置が、実際には物品上面が存在し得ないような位置を、物品上面の存在する位置として誤って認識することを抑制することができる。   According to this configuration, when the rectangular area corresponding to the upper surface of the article in the basic image is not included within the container existing area in the basic image, that is, a part of the rectangular area corresponding to the upper surface of the article protrudes outside the container. When a recognition result that is not possible in practice is obtained, the article wall check unit outputs an error. Thereby, it can suppress that an article recognition device recognizes the position where an article upper surface cannot actually exist erroneously as a position where an article upper surface exists.

また、本発明に係る物品認識設備は、前記物品認識装置と、前記容器を水平方向に移動させる移動部と、前記物品探索処理部において、前記物品存在領域を検出できなかった場合に、前記容器を、前記基本画像の撮像位置から予め設定した量だけ水平移動させるように前記移動部を制御するリトライ制御部と、を備える構成とすると好適である。   In addition, the article recognition facility according to the present invention may be configured such that the article recognition apparatus, the moving unit that moves the container in the horizontal direction, and the article search processing unit cannot detect the article existence area. Is preferably provided with a retry control unit that controls the moving unit so as to be horizontally moved from the imaging position of the basic image by a preset amount.

この構成によれば、基本画像において物品存在領域を検出できなかった場合には、容器を前記基本画像の撮像位置から予め設定した量だけ水平移動することになる。これにより、基本画像に光の反射等によるノイズが含まれている場合等には、容器を水平移動して撮像位置を変えることで、光の反射の影響を低減できる可能性がある。よって、容器を水平移動した後に、再度撮像した基本画像においては、物品存在領域を検出できる可能性がある。従って、物品認識装置による物品の認識率の向上を図ることができる。   According to this configuration, when the article presence area cannot be detected in the basic image, the container is horizontally moved by a preset amount from the imaging position of the basic image. As a result, when the basic image includes noise due to light reflection or the like, the influence of light reflection may be reduced by horizontally moving the container and changing the imaging position. Therefore, there is a possibility that the article presence area can be detected in the basic image taken again after the container is moved horizontally. Therefore, the recognition rate of the article by the article recognition apparatus can be improved.

本発明の実施形態に係る物品搬送設備の概略構成図Schematic configuration diagram of an article transport facility according to an embodiment of the present invention 本発明の実施形態に係るピッキング装置の制御ブロック図Control block diagram of picking apparatus according to an embodiment of the present invention 本発明の実施形態に係るピッキング装置のピッキングの様子を示す概略図Schematic which shows the mode of the picking of the picking apparatus which concerns on embodiment of this invention 本発明の実施形態に係る容器及び物品の斜視図The perspective view of the container and article which concern on embodiment of this invention 本発明の実施形態に係る基本画像を示す図The figure which shows the basic image which concerns on embodiment of this invention 本発明の実施形態に係る単一高さ画像生成処理を説明するための概念図The conceptual diagram for demonstrating the single height image generation process which concerns on embodiment of this invention 本発明の実施形態に係る容器の断面図Sectional drawing of the container which concerns on embodiment of this invention 本発明の実施形態に係る単一高さ画像を生成する際に用いるヒストグラムHistogram used when generating a single height image according to an embodiment of the present invention 本発明の実施形態に係る基本画像における容器存在部分を示す図The figure which shows the container presence part in the basic image which concerns on embodiment of this invention 本発明の実施形態に係るパターンマッチング処理を説明する図The figure explaining the pattern matching process which concerns on embodiment of this invention 本発明の実施形態に係る物品認識処理を説明する図The figure explaining the article recognition process which concerns on embodiment of this invention 本発明の実施形態に係る物品認識処理のフローチャートFlowchart of article recognition processing according to an embodiment of the present invention 本発明の実施形態に係る単一高さ画像生成処理のフローチャートFlowchart of single height image generation processing according to an embodiment of the present invention

本発明に係る物品認識装置の実施形態について本発明を物品搬送設備100におけるピッキング装置1に適用した場合を例に説明する。なお、以下の実施形態では、ピッキングコンベア6が容器51を搬送する際に容器51が載置される面を搬送面Pとし、当該搬送面Pにおける搬送方向に沿う方向を搬送方向WX、当該搬送面Pにおいて前記搬送方向WXと直交する方向を幅方向WY、前記搬送面Pに直交する方向を高さ方向WZとする。これらの3方向を直行座標軸としピッキングコンベヤ6の搬送面P上に設定された原点を有する座標系を「基準座標系」とし、この基準座標系における位置座標を基準座標とする。また、後述するように容器51は平面視矩形状に形成されているが、この容器51がピッキングコンベア6の搬送面Pに載置支持された状態での、容器51の第1辺が沿う方向を容器内搬送方向X、前記容器内搬送方向Xに直交する第2辺が沿う方向を容器内幅方向Y、容器内搬送方向X及び容器内幅方向Yに直交する方向を容器内高さ方向Zとする。これらの3方向を直行座標軸とし容器51の底面上に設定された原点を有する座標系を「容器内座標系」とし、この容器内座標系における位置座標を容器内座標とする。なお、本実施形態では、高さ方向WZと容器内高さ方向Zとは一致している為、総称して高さ方向Zとする。これは、本発明の高さ方向に相当する。   An embodiment of an article recognition apparatus according to the present invention will be described by taking as an example a case where the present invention is applied to a picking apparatus 1 in an article conveyance facility 100. In the following embodiment, the surface on which the container 51 is placed when the picking conveyor 6 transports the container 51 is a transport surface P, the direction along the transport direction on the transport surface P is the transport direction WX, and the transport In the surface P, a direction orthogonal to the conveyance direction WX is defined as a width direction WY, and a direction orthogonal to the conveyance surface P is defined as a height direction WZ. A coordinate system having these three directions as orthogonal coordinate axes and having an origin set on the conveyance surface P of the picking conveyor 6 is defined as a “reference coordinate system”, and a position coordinate in the reference coordinate system is defined as a reference coordinate. Further, as will be described later, the container 51 is formed in a rectangular shape in plan view, but the direction along which the first side of the container 51 extends in a state where the container 51 is placed and supported on the transport surface P of the picking conveyor 6. In the container transport direction X, the direction along the second side orthogonal to the container transport direction X is the container inner width direction Y, the container transport direction X and the direction orthogonal to the container width direction Y are the container height direction. Let it be Z. A coordinate system having these three directions as orthogonal coordinate axes and having an origin set on the bottom surface of the container 51 is referred to as an “in-container coordinate system”, and position coordinates in the in-container coordinate system are referred to as in-container coordinates. In the present embodiment, the height direction WZ and the in-container height direction Z coincide with each other, and hence are collectively referred to as the height direction Z. This corresponds to the height direction of the present invention.

1.物品搬送設備
物品搬送設備100は、図1に示すように、ピッキング装置1と、ピッキングコンベア6と、バーコードリーダ7と、撮像装置8と、出庫コンベア9と、入庫コンベア10と、物品搬送コンベア11と、自動倉庫13とを備える。物品搬送設備100では、まず、どの商品(物品)を何個出庫するか等のオーダーに基づき、当該オーダーに対応する商品(物品)が収納された容器51を自動倉庫13から取り出す。そして、物品搬送設備100は、当該取り出した容器51を、出庫コンベア9及びピッキングコンベア6を介してピッキング箇所12に搬送し、ピッキング装置1により当該オーダーに対応する個数の物品50を容器51内から取り出し、当該取り出した物品50を物品搬送コンベア11に移載する。そして、オーダーに対応する個数の物品50が取り出された後の容器51は、入庫コンベア10を介して自動倉庫13へ戻される。
1. Article Conveying Equipment As shown in FIG. 1, the article conveying equipment 100 includes a picking device 1, a picking conveyor 6, a barcode reader 7, an image pickup device 8, an exit conveyor 9, an entrance conveyor 10, and an article transport conveyor. 11 and an automatic warehouse 13. In the article transport facility 100, first, based on an order such as how many goods (articles) are to be delivered, the container 51 storing the goods (articles) corresponding to the order is taken out from the automatic warehouse 13. Then, the article conveying facility 100 conveys the taken-out container 51 to the picking location 12 via the delivery conveyor 9 and the picking conveyor 6, and the picking device 1 supplies the number of articles 50 corresponding to the order from the container 51. The article 50 taken out is transferred to the article conveyor 11. Then, the container 51 after the number of articles 50 corresponding to the order is taken out is returned to the automatic warehouse 13 via the warehousing conveyor 10.

バーコードリーダ7は、容器51の外側面に付されているバーコード52(図4参照)を非接触(例えば、光学読み取り)で読み取るものである。本実施形態では、バーコードリーダ7は、ピッキング箇所12に設けられている。バーコード52には、容器51の固有のID情報が含まれており、バーコードリーダ7は、読み取ったバーコード52に含まれる容器51の固有のID情報を後述の上位コントローラ2に出力する。   The barcode reader 7 reads the barcode 52 (see FIG. 4) attached to the outer surface of the container 51 in a non-contact manner (for example, optical reading). In the present embodiment, the barcode reader 7 is provided at the picking location 12. The barcode 52 includes unique ID information of the container 51, and the barcode reader 7 outputs the unique ID information of the container 51 included in the read barcode 52 to the host controller 2 described later.

撮像装置8は、撮像した対象物から当該撮像装置8までの距離の情報を記録することができる装置(例えばステレオカメラ)である。撮像装置8は、ピッキング箇所12に搬送されてきた容器51を上方から撮像する。本実施形態では、撮像装置8は、図4に示すように、一対のカメラ8A及び8Bを備える。カメラ8Aは、当該ピッキング箇所12の中心位置の直上であり搬送面Pからの高さが既知の位置に設けられ、ピッキング箇所12全体を平面的に撮像する。他方のカメラ8Bは、ピッキング箇所12の中心位置とは少しずれた位置の上方に設けられ、斜め上方からピッキング箇所12全体を撮像する。本例では、カメラ8Bは、中心位置から搬送方向WXにおける上流側にずれた位置の上方に設けられる。そして、撮像装置8は、カメラ8Aで撮像した画像における各画素においてのカメラ8Aからの距離情報を、カメラ8A及びカメラ8Bの視差に基づいて算出して、各画素がカメラ8Aからの距離情報を有する撮像画像を生成する。なお、当該撮像画像が、本発明の基本画像に相当する。   The imaging device 8 is a device (for example, a stereo camera) that can record information on the distance from the captured object to the imaging device 8. The imaging device 8 images the container 51 that has been transported to the picking location 12 from above. In the present embodiment, the imaging device 8 includes a pair of cameras 8A and 8B as shown in FIG. The camera 8A is provided immediately above the center position of the picking location 12 and at a position where the height from the conveyance surface P is known, and images the entire picking location 12 in a planar manner. The other camera 8B is provided above a position slightly deviated from the center position of the picking location 12, and images the entire picking location 12 from obliquely above. In this example, the camera 8B is provided above a position shifted from the center position to the upstream side in the transport direction WX. Then, the imaging device 8 calculates distance information from the camera 8A in each pixel in the image captured by the camera 8A based on the parallax of the camera 8A and the camera 8B, and each pixel calculates distance information from the camera 8A. A captured image is generated. Note that the captured image corresponds to a basic image of the present invention.

出庫コンベア9は、自動倉庫13の収納棚(図示せず)からスタッカークレーン13Bを介して搬送されてきた容器51を、ピッキングコンベア6へ搬送する。   The delivery conveyor 9 conveys the containers 51 that have been conveyed from a storage shelf (not shown) of the automatic warehouse 13 via the stacker crane 13 </ b> B to the picking conveyor 6.

ピッキングコンベア6は、出庫コンベア9から搬送されてきた容器51をピッキング箇所12に搬送し、ピッキング処理が終わると当該容器51を入庫コンベア10に搬送する。また、ピッキングコンベア6には、搬送方向WXにおける一部の領域(本例では中央付近)に幅方向WY全体に亘ってピッキング箇所12が設定されている。ピッキング箇所12は、ピッキング装置1により容器51から物品50を取り出す場所である。なお、本発明に係る物品認識装置3は、この容器51から物品50を取り出す場面で、取り出し対象となる物品50の位置を認識する為に用いられる。本実施形態では、ピッキングコンベア6は、ピッキング箇所12に容器51を搬送する際に、当該ピッキング箇所12の中心位置と、容器51の底面の中心位置とが一致するように搬送する。そして、この当該ピッキング箇所12の中心位置に、容器51の底面の中心位置を一致させるように合わせた位置が基本画像の撮像位置である。また、ピッキングコンベア6は、後述のリトライ制御部23からのリトライ動作指令に基づき、ピッキング箇所12に存在する容器51を搬送方向WXに沿って水平移動させるように搬送面Pを作動する。なお、本実施形態におけるピッキングコンベア6が、本発明の移動部に相当する。   The picking conveyor 6 transports the containers 51 transported from the delivery conveyor 9 to the picking location 12 and transports the containers 51 to the storage conveyor 10 when the picking process is completed. Further, in the picking conveyor 6, a picking location 12 is set across the entire width direction WY in a partial region (in the vicinity of the center in this example) in the transport direction WX. The picking location 12 is a location where the article 50 is taken out from the container 51 by the picking device 1. The article recognition apparatus 3 according to the present invention is used for recognizing the position of the article 50 to be taken out when the article 50 is taken out from the container 51. In the present embodiment, when the container 51 is transported to the picking location 12, the picking conveyor 6 transports the center location of the picking location 12 and the center location of the bottom surface of the container 51. The position where the center position of the bottom surface of the container 51 is matched with the center position of the picking location 12 is the imaging position of the basic image. Further, the picking conveyor 6 operates the transport surface P so as to horizontally move the container 51 present at the picking location 12 along the transport direction WX based on a retry operation command from the retry control unit 23 described later. In addition, the picking conveyor 6 in this embodiment is corresponded to the moving part of this invention.

入庫コンベア10は、ピッキングコンベア6から搬送されてきた物品50の取り出し済みの容器51を自動倉庫13へ搬送する。自動倉庫13へ搬送された容器51は、スタッカークレーン等を介して収納棚へ再入庫される。自動倉庫13は、容器51を収納可能な収納棚を複数有するラック13Aと、スタッカークレーン13Bとを有する。物品搬送コンベア11は、ピッキング装置1によって容器51から取り出された物品50を、集品コンベア(図示せず)へ搬送する。当該集品コンベアへ搬送された物品50は出荷される。   The warehousing conveyor 10 conveys the containers 51 from which the articles 50 that have been conveyed from the picking conveyor 6 have been taken out to the automatic warehouse 13. The container 51 transported to the automatic warehouse 13 is re-stocked into the storage shelf via a stacker crane or the like. The automatic warehouse 13 includes a rack 13A having a plurality of storage shelves that can store the containers 51, and a stacker crane 13B. The article conveyance conveyor 11 conveys the article 50 taken out from the container 51 by the picking device 1 to a collection conveyor (not shown). The article 50 conveyed to the collection conveyor is shipped.

ここで、容器51は、容器内部を撮像装置8にて撮像可能なように上面が開放された直方体形状に構成されている。例えば、容器51は、トレーや上面を取り除いた段ボール箱等である。また、容器51は、図4に示すように、容器内搬送方向X、容器内幅方向Y及び高さ方向Zの各方向に複数の物品50を積層して収容することが可能である。具体的には、図5及び図7に示すように、容器51は、物品上面が同一の高さに属するように配置された同一形状の複数の物品50により形成される物品層を、高さ方向Zに積層した状態で収容している。本実施形態では、図5及び図7に示すように、ピッキング箇所12に搬送されてきた容器51として、容器内搬送方向Xに4個及び容器内幅方向Yに3個ずつ配置された計12個の物品50から成る物品層が、高さ方向Zに2層積層され、さらにその上に3個の物品50が不揃いな状態で積層されている例を用いて説明する。なお、本実施形態では、直方体形状の容器51を用いているが立方体形状の容器51であってもよい。   Here, the container 51 is configured in a rectangular parallelepiped shape whose upper surface is opened so that the inside of the container can be imaged by the imaging device 8. For example, the container 51 is a cardboard box or the like from which a tray or an upper surface is removed. Further, as shown in FIG. 4, the container 51 can store a plurality of articles 50 stacked in each direction of the in-container transport direction X, the in-container width direction Y, and the height direction Z. Specifically, as shown in FIGS. 5 and 7, the container 51 has a height of an article layer formed by a plurality of articles 50 having the same shape and arranged such that the upper surface of the article belongs to the same height. It is housed in a stacked state in the direction Z. In this embodiment, as shown in FIGS. 5 and 7, as the containers 51 that have been transported to the picking location 12, four containers 51 in the container transport direction X and three containers 51 in the container width direction Y are arranged. A description will be given by using an example in which two article layers composed of the individual articles 50 are laminated in the height direction Z, and three articles 50 are laminated in an irregular state. In this embodiment, a rectangular parallelepiped container 51 is used, but a cubic container 51 may be used.

1つの容器51に収容される物品50は、全て同一形状の直方体形状に構成されている。なお、物品50は、全て同一形状の立方体形状に構成されていてもよい。また、本実施形態では、物品50の3辺の寸法は、図4に示すように、H1、W1、L1であり、これらの寸法情報は、物品情報データベース4(後述)に予め格納されている。なお、物品50の各辺の長さの関係は、H1<W1<L1である。   All the articles 50 accommodated in one container 51 are configured in the same rectangular parallelepiped shape. In addition, all the articles | goods 50 may be comprised by the cube shape of the same shape. In the present embodiment, the dimensions of the three sides of the article 50 are H1, W1, and L1, as shown in FIG. 4, and these dimension information is stored in advance in the article information database 4 (described later). . The relationship between the lengths of the sides of the article 50 is H1 <W1 <L1.

2.ピッキング装置
ピッキング装置1は、上位コントローラ2と物品認識装置3とピッキングロボット5とを備え、上位コントローラ2と物品認識装置3とは情報伝達可能に接続される。また、上位コントローラ2とピッキングロボット5とが情報伝達可能に接続される。ピッキング装置1では、まず、上位コントローラ2が、センサ等(図示せず)にて、ピッキング箇所12に容器51が存在することを検知すると、物品認識装置3に物品探索指令を出力する。物品認識装置3は、当該物品探索指令に応じて、物品50のピッキング箇所12における物品上面の3次元位置及び平面視姿勢を認識する処理を実行し、当該認識結果情報を上位コントローラ2に出力する。上位コントローラ2は、当該認識結果情報及び後述の物品情報データベース4から取得した容器情報を、動作指令と併せてピッキングロボット5に出力する。なお、動作指令と併せて出力される付帯情報を動作指令情報という。つまり、動作指令情報には、認識結果情報及び容器情報が含まれる。
2. Picking Device The picking device 1 includes a host controller 2, an article recognition device 3, and a picking robot 5, and the host controller 2 and the article recognition device 3 are connected so as to be able to transmit information. Further, the host controller 2 and the picking robot 5 are connected so as to be able to transmit information. In the picking apparatus 1, first, when the host controller 2 detects the presence of the container 51 at the picking location 12 using a sensor or the like (not shown), it outputs an article search command to the article recognition apparatus 3. In response to the article search command, the article recognition apparatus 3 executes processing for recognizing the three-dimensional position and planar view posture of the article upper surface at the picking location 12 of the article 50 and outputs the recognition result information to the host controller 2. . The host controller 2 outputs the recognition result information and the container information acquired from the article information database 4 described later to the picking robot 5 together with the operation command. Note that the incidental information output together with the operation command is referred to as operation command information. That is, the operation command information includes recognition result information and container information.

ピッキングロボット5は、図3に示すように、ハンド部14と吸着ノズル15と制御部(図示せず)とを備える。ハンド部14は、ピッキングロボット5の本体部(図示せず)から延びるアームの先端部に、当該アームに対して回転可能に設けられている。ハンド部14の下面には、ハンド部14の下方空間において伸縮可能な吸着ノズル15が複数本設けられている。吸着ノズル15は、物品認識装置3により認識された物品上面まで伸びて、当該物品上面を吸着した状態で上方に向けて縮むことにより物品50を容器51から取り出す。制御部は、上位コントローラ2のロボット制御部24から動作指令及び動作指令情報(認識結果情報及び容器情報)を受けて、当該ロボット制御部24から取得した認識結果情報に含まれる容器位置情報と物品上面の3次元位置及び平面視姿勢との情報から、基準座標系における物品上面の3次元位置を及び平面視姿勢を算出する。そして、制御部は、これに基づき、容器51内へのハンド部14の進入角度及び使用する吸着ノズル15を決定する。なお、ピッキングロボット5は、基準座標系の位置座標に基づいて動作する。そして、制御部は、当該決定した吸着ノズル15で認識対象の物品50を吸着して当該物品50を取り出し、アームを移動させて当該取り出した物品50を物品搬送コンベア11へ移載する。以下では、上位コントローラ2及び物品認識装置3の各構成の詳細な説明をする。   As shown in FIG. 3, the picking robot 5 includes a hand unit 14, a suction nozzle 15, and a control unit (not shown). The hand unit 14 is provided at the tip of an arm extending from a main body (not shown) of the picking robot 5 so as to be rotatable with respect to the arm. A plurality of suction nozzles 15 that can expand and contract in the lower space of the hand portion 14 are provided on the lower surface of the hand portion 14. The suction nozzle 15 extends to the upper surface of the article recognized by the article recognition apparatus 3, and takes out the article 50 from the container 51 by contracting upward while the upper surface of the article is sucked. The control unit receives the operation command and the operation command information (recognition result information and container information) from the robot control unit 24 of the host controller 2, and the container position information and the article included in the recognition result information acquired from the robot control unit 24 From the information of the three-dimensional position and the planar view posture of the upper surface, the three-dimensional position and the planar view posture of the article upper surface in the reference coordinate system are calculated. Based on this, the control unit determines the entry angle of the hand unit 14 into the container 51 and the suction nozzle 15 to be used. The picking robot 5 operates based on the position coordinates of the reference coordinate system. Then, the control unit sucks the article 50 to be recognized by the suction nozzle 15 thus determined, takes out the article 50, moves the arm, and transfers the taken-out article 50 to the article transport conveyor 11. Below, the detailed description of each structure of the high-order controller 2 and the goods recognition apparatus 3 is given.

2−1.上位コントローラ
上位コントローラ2は、物品情報取得部21と、容器情報取得部22と、リトライ制御部23と、ロボット制御部24とを備える。上位コントローラ2は、ピッキングロボット5及び物品認識装置3以外にも、別に設けられた物品情報データベース4、ピッキングコンベア6、及びバーコードリーダ7との間でも情報伝達可能に接続されている。
2-1. Host Controller The host controller 2 includes an article information acquisition unit 21, a container information acquisition unit 22, a retry control unit 23, and a robot control unit 24. The host controller 2 is connected to an article information database 4, a picking conveyor 6, and a bar code reader 7 provided separately from each other in addition to the picking robot 5 and the article recognition apparatus 3.

ここで、物品情報データベース4は、別の装置(図示せず)でマスター登録された各容器51の3辺の寸法情報を、当該各容器51に割り振られたID情報と対応づけて、マスター容器情報として格納している。なお、マスター容器情報には、容器50に収容されている物品50のID情報及び各容器51内の物品50の在庫数の情報が、容器のID情報と対応づけられて含まれている。   Here, the article information database 4 associates the dimension information of the three sides of each container 51 master-registered by another device (not shown) with the ID information assigned to each container 51, and thereby master container Stored as information. Note that the master container information includes ID information of the articles 50 accommodated in the containers 50 and information on the number of stocks of the articles 50 in each container 51 in association with the container ID information.

また、物品情報データベース4は、別の装置(図示せず)でマスター登録された複数種の物品50の夫々の寸法情報及びテンプレート画像を、各物品50のID情報と対応づけてマスター物品情報として格納している。物品50の寸法情報は、当該物品50の1つの頂点から延びる3辺の各辺の寸法を示す情報である。テンプレート画像は、後述のパターンマッチング処理で物品存在領域Mを検出する際の雛形となる画像である。本実施形態におけるマスター物品情報に含まれるテンプレート画像は、物品50の6個の矩形面のうちの一部の矩形面の画像に対応する。具体的には、図10における破線で囲まれた領域で示すように、別の撮像装置(図示せず)によって物品50の6個の矩形面のうちの2個の矩形面がそれぞれ撮像され、当該撮像画像に基づく矩形面の画像がテンプレート画像P1及びP2として予めマスター登録されている。その際、各テンプレート画像のサイズや分解能も併せて登録されている。なお、当該テンプレート画像として登録される数は、5個以下であればよく、物品50の6個の矩形面のうちの1個、3個若しくは4個の矩形面の画像に対応するテンプレート画像が予めマスター登録されていてもよい。また、本実施形態では、物品50の矩形面のいずれの面を上面とした姿勢で容器51内に収納されるかの予定収納姿勢が、容器51毎に予め決められてマスター登録され、マスター物品情報には、当該マスター登録された予定収納姿勢が容器51のID情報に対応づけられて含まれている。本実施形態では、図4に示すように、長さH1の辺が高さ方向に沿う姿勢で、かつ、商品名「○○○」が表示されている面が上面となる姿勢が予定収納姿勢として登録されている。また、マスター物品情報に含まれるテンプレート画像の一つは、当該物品50の予定収納姿勢において上面となる矩形面の模様に対応する画像であり、本実施形態では、図10に示すように、商品名「○○○」が表示されているテンプレート画像P2である。   Further, the article information database 4 associates each dimension information and template image of a plurality of types of articles 50 master-registered by another device (not shown) with the ID information of each article 50 as master article information. Storing. The dimension information of the article 50 is information indicating the dimensions of the three sides extending from one vertex of the article 50. The template image is an image that serves as a template for detecting the article presence region M by pattern matching processing described later. The template image included in the master article information in the present embodiment corresponds to an image of a part of the six rectangular faces of the article 50. Specifically, as shown by a region surrounded by a broken line in FIG. 10, two of the six rectangular surfaces of the article 50 are imaged by another imaging device (not shown), respectively. A rectangular image based on the captured image is registered in advance as template images P1 and P2. At that time, the size and resolution of each template image are also registered. The number registered as the template image may be five or less, and template images corresponding to images of one, three, or four rectangular surfaces of the six rectangular surfaces of the article 50 are included. Master registration may be performed in advance. Further, in the present embodiment, the planned storage posture of whether or not the rectangular shape of the article 50 is stored in the container 51 in a posture with the upper surface as the upper surface is determined in advance for each container 51 and is master-registered. The information includes the scheduled storage posture registered as the master in association with the ID information of the container 51. In the present embodiment, as shown in FIG. 4, a posture in which the side of the length H <b> 1 is along the height direction and the surface on which the product name “XXX” is displayed is the top storage posture. It is registered as. In addition, one of the template images included in the master article information is an image corresponding to a rectangular pattern that is an upper surface in the planned storage posture of the article 50. In this embodiment, as shown in FIG. This is the template image P2 on which the name “XXX” is displayed.

容器情報取得部22は、物品情報データベース4のマスター容器情報から、ピッキング箇所12に存在する容器51の固有の容器情報を取得する機能部である。具体的には、容器情報取得部22は、ピッキング箇所12に容器51が存在することを検知すると、バーコードリーダ7から容器51のID情報を取得する。そして、容器情報取得部22は、物品情報データベース4に格納されているマスター容器情報から、当該ID情報に対応づけられている容器51の容器情報(容器51の寸法情報)を取得する。そして、容器情報取得部22は、当該取得した容器情報を動作指令情報としてロボット制御部24に出力する。   The container information acquisition unit 22 is a functional unit that acquires unique container information of the container 51 existing in the picking location 12 from the master container information of the article information database 4. Specifically, the container information acquisition unit 22 acquires the ID information of the container 51 from the barcode reader 7 when detecting that the container 51 exists at the picking location 12. And the container information acquisition part 22 acquires the container information (dimension information of the container 51) of the container 51 matched with the said ID information from the master container information stored in the article information database 4. Then, the container information acquisition unit 22 outputs the acquired container information to the robot control unit 24 as operation command information.

物品情報取得部21は、物品情報データベース4のマスター物品情報から、ピッキング箇所12に存在する容器51に収容されている物品50の物品情報を取得する機能部である。具体的には、物品情報取得部21は、容器情報取得部22が容器情報を取得する際に、物品情報データベース4に格納されているマスター物品情報から、前記容器51のID情報に対応づけられている物品50の物品情報(物品50の寸法情報及びテンプレート画像)を取得する。そして、物品情報取得部21は、当該取得した物品情報を物品認識装置3に出力する。   The article information acquisition unit 21 is a functional unit that acquires the article information of the article 50 accommodated in the container 51 existing in the picking location 12 from the master article information in the article information database 4. Specifically, the article information acquiring unit 21 is associated with the ID information of the container 51 from the master article information stored in the article information database 4 when the container information acquiring unit 22 acquires the container information. The article information (the dimension information and the template image of the article 50) of the article 50 being acquired is acquired. Then, the article information acquisition unit 21 outputs the acquired article information to the article recognition device 3.

リトライ制御部23は、物品存在領域Mを検出できなかった場合に、容器51を、基本画像の撮像位置から予め設定した量だけ水平移動させるようにピッキングコンベア6を制御する機能部である。本実施形態では、リトライ制御部23は、物品認識装置3からの出力結果に基づいて、ピッキングコンベア6を制御する。具体的には、リトライ制御部23は、単一高さ画像生成部36(後述)からいずれの単一高さ画像にも物品探索領域が存在しないと判別した旨の情報を受けた場合、エッジ検出処理部39(後述)から物品探索範囲として設定されたいずれの単一高さ画像にも物品存在領域Mを検出できなかった旨の情報を受けた場合、及びチェック処理部45からエラー出力がされた場合に機能する。また、本実施形態におけるリトライ制御部23は、物品認識装置3から出力結果を受けると、まず、当該容器51がピッキング箇所12に搬送されてから、ピッキングコンベア6にリトライ動作指令を出力した回数を算出する。リトライ制御部23は、リトライ動作指令の出力回数を0回と判別した場合には、容器51を、基本画像の撮像位置から搬送方向WXの下流側に向かって予め設定した第1リトライ用設定量(本例では75mm)だけ水平移動させるようにピッキングコンベア6にリトライ動作指令を出力する。そして、リトライ制御部23は、ピッキングコンベア6から水平移動が完了した旨の情報を取得すると、物品認識装置3に物品探索指令を出力し、当該物品認識装置3において再処理が実行される。また、リトライ制御部23が、リトライ動作指令の出力回数を1回と判別した場合には、容器51が既に撮像位置から搬送方向WXの下流側に予め設定した量(75mm)だけ水平移動された状態である。よって、リトライ制御部23は、撮像位置に対して搬送方向WXの下流側に第1リトライ用設定量(75mm)ずれた位置から、撮像位置に対して搬送方向WXの上流側に第1リトライ用設定量(75mm)ずれた位置まで容器51を水平移動させるようにピッキングコンベア6を制御する。すなわち、リトライ制御部23は、撮像位置に対して搬送方向WXの下流側に第1リトライ用設定量(75mm)ずれた位置から、搬送方向WXの上流側に予め設定した第2リトライ用設定量(本例では150mm)だけ水平移動させるようにピッキングコンベア6にリトライ動作指令を出力する。そして、リトライ制御部23は、ピッキングコンベア6から水平移動が完了した旨の情報を取得すると、ロボット制御部24を介して、物品認識装置3に物品探索指令を出力し、当該物品認識装置3において再々処理が実行される。また、リトライ制御部23は、リトライ動作指令の出力回数を2回と判別した場合には、ピッキングコンベア6に対してリセット指示を出力し、ピッキングコンベア6は、容器51を元の撮像位置に水平移動させる。なお、本実施形態の物品認識装置3と上位コントローラ2(リトライ制御部23)とピッキングコンベア6とが本発明の物品認識設備に相当する。   The retry control unit 23 is a functional unit that controls the picking conveyor 6 so as to horizontally move the container 51 by a predetermined amount from the imaging position of the basic image when the article presence region M cannot be detected. In the present embodiment, the retry control unit 23 controls the picking conveyor 6 based on the output result from the article recognition device 3. Specifically, when the retry control unit 23 receives information from the single height image generation unit 36 (described later) indicating that no article search area exists in any single height image, When information indicating that the article presence area M could not be detected in any single height image set as the article search range is received from the detection processing unit 39 (described later), an error output is output from the check processing unit 45. It works when it is done. In addition, when the retry control unit 23 in the present embodiment receives the output result from the article recognition device 3, first, the retry control unit 23 outputs the number of times the retry operation command is output to the picking conveyor 6 after the container 51 is transported to the picking location 12. calculate. When the retry control unit 23 determines that the number of output of the retry operation command is 0, the first retry set amount that is set in advance from the imaging position of the basic image toward the downstream side in the transport direction WX. A retry operation command is output to the picking conveyor 6 so as to move horizontally (in this example, 75 mm). When the retry control unit 23 acquires information indicating that the horizontal movement is completed from the picking conveyor 6, the retry control unit 23 outputs an article search command to the article recognition apparatus 3, and reprocessing is performed in the article recognition apparatus 3. In addition, when the retry control unit 23 determines that the number of output of the retry operation command is one, the container 51 has already been horizontally moved from the imaging position to the downstream side in the transport direction WX by a preset amount (75 mm). State. Therefore, the retry control unit 23 performs the first retry for the first retry on the upstream side in the transport direction WX with respect to the imaging position from the position shifted by the first retry setting amount (75 mm) on the downstream side in the transport direction WX with respect to the imaging position. The picking conveyor 6 is controlled so that the container 51 is horizontally moved to a position shifted by a set amount (75 mm). That is, the retry control unit 23 sets the second retry setting amount preset on the upstream side in the transport direction WX from the position shifted from the imaging position to the downstream side in the transport direction WX by the first retry setting amount (75 mm). A retry operation command is output to the picking conveyor 6 so as to move horizontally (in this example, 150 mm). When the retry control unit 23 acquires information indicating that the horizontal movement is completed from the picking conveyor 6, the retry control unit 23 outputs an article search command to the article recognition apparatus 3 via the robot control unit 24. The process is executed again. In addition, when the retry control unit 23 determines that the number of output of the retry operation command is two times, the retry control unit 23 outputs a reset instruction to the picking conveyor 6, and the picking conveyor 6 horizontally places the container 51 at the original imaging position. Move. Note that the article recognition apparatus 3, the host controller 2 (retry control unit 23), and the picking conveyor 6 according to the present embodiment correspond to the article recognition equipment of the present invention.

ロボット制御部24は、ピッキングロボット5を制御する機能部である。本実施形態では、ロボット制御部24は、センサ等でピッキング箇所12に容器51が搬送されてきたことを検知すると、物品認識装置3に対して物品探索指令を出力するとともに、容器情報取得部22で取得した容器情報、及び、物品情報取得部21で取得した物品情報、を物品認識装置3に対して出力する。また、ロボット制御部24は、物品認識装置3から出力された認識結果情報を取得すると、ピッキングロボット5の制御部に対して動作指令を出力するとともに、動作指令情報も併せて出力する。なお、認識結果情報は、容器姿勢・位置判別部33から出力される容器位置情報及び物品位置特定部41から出力される物品上面の3次元位置及び平面視姿勢の情報である。   The robot control unit 24 is a functional unit that controls the picking robot 5. In the present embodiment, when the robot control unit 24 detects that the container 51 has been transported to the picking location 12 by a sensor or the like, the robot control unit 24 outputs an article search command to the article recognition device 3, and the container information acquisition unit 22. The container information acquired in step 1 and the item information acquired by the item information acquisition unit 21 are output to the item recognition apparatus 3. In addition, when the robot control unit 24 acquires the recognition result information output from the article recognition device 3, the robot control unit 24 outputs an operation command to the control unit of the picking robot 5 and also outputs the operation command information. The recognition result information is container position information output from the container posture / position determining unit 33 and information on the three-dimensional position and planar view posture of the article upper surface output from the article position specifying unit 41.

2−2.物品認識装置
物品認識装置3は、物品上面の3次元位置及び当該物品上面の平面視での配置状態である平面視姿勢を認識する装置である。物品認識装置3は、画像取得部31と、容器外形検出部32と、容器姿勢・位置判別部33と、物品探索範囲設定部34と、物品探索処理部37と、記憶部40と、物品位置特定部41と、情報取得部44と、チェック処理部45とを備える。そして、本実施形態の物品認識装置3は、容器51内において最上面となり得る面の高さを予測して、その高さの高さ情報を有する画素のみから単一高さ画像を生成し、当該単一高さ画像内に、物品50の矩形面とマッチングする領域が検出できれば、当該高さに最上面となり得る物品上面が存在することを認識できるという技術的思想に基づくものである。物品認識装置3は、CPU等の演算処理装置を中核部材として備え、入力されたデータに対して種々の処理を行うための機能部として、ハードウェア又はソフトウェア(プログラム)或いはその両方により実装されて構成されている。
2-2. Article Recognition Apparatus The article recognition apparatus 3 is an apparatus that recognizes a three-dimensional position of an article upper surface and a planar view posture that is an arrangement state of the article upper surface in plan view. The article recognition apparatus 3 includes an image acquisition unit 31, a container outer shape detection unit 32, a container posture / position determination unit 33, an article search range setting unit 34, an article search processing unit 37, a storage unit 40, and an article position. The identification unit 41, the information acquisition unit 44, and the check processing unit 45 are provided. And the article recognition device 3 of the present embodiment predicts the height of the surface that can be the uppermost surface in the container 51, generates a single height image only from pixels having the height information of the height, This is based on the technical idea that if a region matching the rectangular surface of the article 50 can be detected in the single height image, it can be recognized that there is an upper surface of the article that can be the uppermost surface at the height. The article recognition apparatus 3 includes an arithmetic processing unit such as a CPU as a core member, and is implemented by hardware and / or software (program) or both as a functional unit for performing various processes on input data. It is configured.

画像取得部31は、撮像装置8から撮像画像を取得する機能部である。本実施形態では、画像取得部31は、上位コントローラ2より物品探索指令を受けると、撮像装置8に対して撮像指示を出力し、当該撮像指示に基づいて撮像された撮像画像(基本画像)を撮像装置8から取得する。また、当該基本画像が撮像装置8(カメラ8A)から撮像された物品上面までの距離情報を含んでいる為、画像取得部31は、当該距離情報と既知である撮像装置8(カメラ8A)の搬送面P(容器底面)からの高さとから、当該基本画像における各画素について、当該各画素に対応する位置での物品上面の容器底面からの高さを示す高さ情報を取得して、各画素が容器底面からの高さ情報を有する基本画像を生成する。そして、画像取得部31は、当該生成した各画素が容器底面からの高さ情報を有する基本画像を記憶部40に記憶させる。また、画像取得部31は、容器外形検出部32に対して容器検出処理を実行するよう指令する。なお、基本画像の一例を図5に示す。   The image acquisition unit 31 is a functional unit that acquires a captured image from the imaging device 8. In the present embodiment, when receiving an article search command from the host controller 2, the image acquisition unit 31 outputs an imaging instruction to the imaging device 8, and takes a captured image (basic image) captured based on the imaging instruction. Obtained from the imaging device 8. Further, since the basic image includes distance information from the imaging device 8 (camera 8A) to the upper surface of the article imaged, the image acquisition unit 31 includes the distance information and the known imaging device 8 (camera 8A). From the height from the conveyance surface P (the container bottom surface), for each pixel in the basic image, obtain height information indicating the height from the container bottom surface of the article upper surface at a position corresponding to each pixel, A basic image is generated in which the pixels have height information from the bottom of the container. Then, the image acquisition unit 31 causes the storage unit 40 to store a basic image in which each of the generated pixels has height information from the container bottom surface. In addition, the image acquisition unit 31 instructs the container outer shape detection unit 32 to execute a container detection process. An example of the basic image is shown in FIG.

情報取得部44は、上位コントローラ2から出力された、ピッキング箇所12に存在している容器51の容器情報及び当該容器51内に収納されている物品50の物品情報を取得する機能部である。本実施形態では、情報取得部44は、当該取得した容器情報及び物品情報を記憶部40に記憶させる。なお、前記物品情報には、物品50のテンプレート画像及び物品50の寸法情報が含まれている為、情報取得部44が本発明の情報取得部に相当する。   The information acquisition unit 44 is a functional unit that acquires the container information of the container 51 existing in the picking location 12 and the article information of the article 50 stored in the container 51, which are output from the host controller 2. In the present embodiment, the information acquisition unit 44 stores the acquired container information and article information in the storage unit 40. Since the article information includes the template image of the article 50 and the dimension information of the article 50, the information acquisition unit 44 corresponds to the information acquisition unit of the present invention.

容器外形検出部32は、基本画像内に容器51の外形が含まれるか否かを検出する機能部である。具体的には、容器外形検出部32は、まず、基本画像内におけるピッキング箇所12の搬送面Pの色と容器51の色とのコントラスト差から容器外形を抽出する。また、容器外形検出部32は、記憶部40から、容器情報に含まれる容器51の寸法情報、特に容器51を搬送面Pに載置した状態で搬送方向WXに沿う方向の寸法と幅方向WYに沿う方向の寸法情報とを取得する。容器外形検出部32は、当該抽出した容器外形と、当該取得した容器51の寸法情報とを比較して、予め定められた許容範囲内で一致していると判別する場合には、容器外形であると認識する。そして、容器外形検出部32は、容器姿勢・位置判別部33に対して、容器51の平面視姿勢及び平面位置を特定するよう指令するとともに、物品探索範囲設定部34に対して物品探索範囲を設定するよう指令する。なお、容器外形検出部32は、当該抽出した容器外形が、容器51の寸法情報と予め定められた許容範囲内で一致しない場合には、容器検出エラーのエラー報告を上位コントローラ2へ出力する。エラー報告を受信した上位コントローラ2は、物品認識装置3に対してリセット指示を出力する。これにより、記憶部40に記憶された画像取得部31により取得された撮像画像や情報取得部44により取得された容器情報及び物品情報が消去される。   The container outer shape detection unit 32 is a functional unit that detects whether or not the outer shape of the container 51 is included in the basic image. Specifically, the container outline detector 32 first extracts the container outline from the contrast difference between the color of the transport surface P of the picking location 12 and the color of the container 51 in the basic image. Further, the container outer shape detection unit 32 receives the dimension information of the container 51 included in the container information from the storage unit 40, particularly the dimension in the direction along the transport direction WX and the width direction WY in a state where the container 51 is placed on the transport surface P. Dimension information in the direction along When the container outer shape detection unit 32 compares the extracted container outer shape with the acquired dimension information of the container 51 and determines that they match within a predetermined allowable range, the container outer shape detection unit 32 Recognize that there is. Then, the container outer shape detection unit 32 instructs the container posture / position determination unit 33 to specify the planar view posture and the planar position of the container 51, and sets the article search range to the article search range setting unit 34. Command to set. Note that the container outer shape detection unit 32 outputs an error report of a container detection error to the host controller 2 when the extracted container outer shape does not match the dimensional information of the container 51 within a predetermined allowable range. The host controller 2 that has received the error report outputs a reset instruction to the article recognition device 3. As a result, the captured image acquired by the image acquisition unit 31 stored in the storage unit 40 and the container information and article information acquired by the information acquisition unit 44 are deleted.

容器姿勢・位置判別部33は、基本画像内における容器51の平面視姿勢を判別するとともに、平面位置を特定する機能部である。ここで、基本画像は、図5に示すように、ピッキング箇所12の領域と対応している。本実施形態では、ピッキング箇所12の搬送方向WXにおける下流側で幅方向WYにおける物品搬送コンベア11側の隅と、基本画像の左下の隅(図5の紙面左側)とが対応している。そして、この位置を原点WOとして、基本画像の搬送方向WX方向に沿う方向にWX軸、幅方向WYに沿う方向にWY軸をとり、当該座標系を画像座標系とする。なお、本実施形態では、当該画像座標系はピッキングロボット5の制御で用いられる基準座標系と各座標軸の方向が一致している。本実施形態では、容器姿勢・位置判別部33は、容器外形検出部32から指令を受けると、図5に示すように、基本画像中における容器51の4隅(51A,51B,51C,51D)の画像座標(WX,WY)をそれぞれ算出する。また、容器姿勢・位置判別部33は、基本画像に対する容器51の傾きを示す容器回転角を算出する。そして、容器姿勢・位置判別部33は、算出した容器51の画像座標(WX,WY)と容器回転角とを容器位置情報として上位コントローラ2のロボット制御部24へ出力する。   The container posture / position determining unit 33 is a functional unit that determines the planar view posture of the container 51 in the basic image and specifies the planar position. Here, the basic image corresponds to the area of the picking location 12 as shown in FIG. In the present embodiment, the corner on the article transport conveyor 11 side in the width direction WY on the downstream side in the transport direction WX of the picking location 12 corresponds to the lower left corner of the basic image (the left side in FIG. 5). Then, with this position as the origin WO, the WX axis is taken in the direction along the conveyance direction WX direction of the basic image, and the WY axis is taken in the direction along the width direction WY, and the coordinate system is taken as the image coordinate system. In this embodiment, the image coordinate system matches the direction of each coordinate axis with the reference coordinate system used in the control of the picking robot 5. In this embodiment, when the container posture / position determination unit 33 receives a command from the container outer shape detection unit 32, as shown in FIG. 5, the four corners (51A, 51B, 51C, 51D) of the container 51 in the basic image are displayed. Image coordinates (WX, WY) are respectively calculated. Further, the container posture / position determining unit 33 calculates a container rotation angle indicating the inclination of the container 51 with respect to the basic image. Then, the container posture / position determination unit 33 outputs the calculated image coordinates (WX, WY) of the container 51 and the container rotation angle to the robot control unit 24 of the host controller 2 as container position information.

物品探索範囲設定部34は、基本画像内において認識対象である物品50の上面を探索する際に、当該探索処理を実行する範囲である物品探索範囲を設定する機能部である。本実施形態では、物品探索範囲設定部34は、仮想基準面設定部35と単一高さ画像生成部36とを備える。そして、物品探索範囲設定部34は、容器51内で最上面となり得る面(最上面となる物品上面が存在し得る面)を判別して、当該最上面となり得る面の高さ情報を有する画素から単一高さ画像を生成し、物品探索処理部37での探索の対象となる物品探索範囲を、基本画像全体から当該高さ画像に絞り込む処理を行う。これにより、物品探索範囲を狭めることができ、物品認識装置3の処理負担を低減できる。また、ピッキングロボット5は、上方から吸着ノズル15により物品50の上面を吸着してピッキングする。その際に、容器51内の底面側の物品50を先にピッキングしようとすると、最上面側の物品50をハンド部14等によって破損してしまう恐れがある。これを抑制する為に、本実施形態では、容器51内で最上面となる面に物品上面が属する物品50から優先的に物品認識処理を実行し、ピッキングする。   The article search range setting unit 34 is a functional unit that sets an article search range that is a range in which the search process is executed when searching for the upper surface of the article 50 that is the recognition target in the basic image. In the present embodiment, the article search range setting unit 34 includes a virtual reference plane setting unit 35 and a single height image generation unit 36. Then, the article search range setting unit 34 determines a surface that can be the uppermost surface in the container 51 (a surface on which the upper surface of the article that is the uppermost surface can exist), and a pixel having height information of the surface that can be the uppermost surface. A single height image is generated, and the article search range to be searched by the article search processing unit 37 is narrowed down from the entire basic image to the height image. Thereby, an article search range can be narrowed and the processing burden of the article recognition apparatus 3 can be reduced. In addition, the picking robot 5 picks up the upper surface of the article 50 by sucking the suction nozzle 15 from above. At that time, if the article 50 on the bottom surface side in the container 51 is to be picked first, the article 50 on the top surface side may be damaged by the hand portion 14 or the like. In order to suppress this, in the present embodiment, the article recognition process is preferentially executed and picked from the article 50 to which the article upper surface belongs to the uppermost surface in the container 51.

仮想基準面設定部35は、容器51内で最上面となり得る面に物品上面を有する物品50が載置されていると考えられる面、すなわち当該物品50の底面が属すると考えられる面を仮想基準面及び仮想基準下面として設定する機能部である。本実施形態では、仮想基準面設定部35は、図5及び図7に示すように、容器51を上方から見た際に、平面視で容器51内において一番広い平面が属する高さ、すなわち、当該基本画像内において同一の高さ情報を有する画素が最も多く含まれる高さを基準高さHとし、当該基準高さHの高さ情報を有する画素群により形成される平面を仮想基準面Sとして設定する。具体的には、仮想基準面設定部35は、容器外形検出部32からの指令に基づき、記憶部40から基本画像を取得する。仮想基準面設定部35は、当該基本画像に基づいて、図8に示すように、縦軸に画素の出現率(画素数)、横軸に画素値(各画素が有する高さ)をとったヒストグラムを生成する。そして、仮想基準面設定部35は、当該ヒストグラムを谷で分割した際に最も面積が大きい山を判別し(図8の紙面左側の山)、その山の中で一番出現率が大きい画素値が有する高さ(図8の紙面左側から3番目のヒストグラムの画素値)を基準高さHとする。また、当該ヒストグラムは、横軸の刻み幅を1mmで作成している。そこで、基準高さHの高さ情報を有する画素群には、基準高さHの高さ情報を有する画素のみでなく、基準高さHから予め定められた許容範囲内(例えば、±1mm程度ずれた高さ)の高さ情報を有する画素を含む構成、すなわち、図8の紙面左側の山において出現率がピークとなるヒストグラムの両側(図8の紙面左側の2番目と4番目)のヒストグラムの画素値も基準高さHの画素値であるとしてもよい。本実施形態では、図5及び図7に示すように、高さ方向Zに積層された2層目の物品50の物品上面から形成される平面が一番広い平面領域を有しており、当該平面が基本画像内における仮想基準面Sに対応する。そして、当該仮想基準面Sに底面が属している物品50(3層目の物品)の物品上面が、容器51内における最上面となる。なお、この仮想基準面Sに底面が属している物品50(3層目の物品)が本発明のベース上段物品に相当する。   The virtual reference plane setting unit 35 uses a virtual reference plane as a plane on which the article 50 having the article upper surface is placed on a plane that can be the uppermost face in the container 51, that is, a plane to which the bottom face of the article 50 belongs. It is a function part set as a surface and a virtual reference lower surface. In the present embodiment, the virtual reference plane setting unit 35, as shown in FIGS. 5 and 7, when the container 51 is viewed from above, the height to which the widest plane in the container 51 belongs in a plan view, that is, A reference height H is a height at which most pixels having the same height information are included in the basic image, and a plane formed by the pixel group having the height information of the reference height H is a virtual reference plane. Set as S. Specifically, the virtual reference plane setting unit 35 acquires a basic image from the storage unit 40 based on a command from the container outer shape detection unit 32. Based on the basic image, the virtual reference plane setting unit 35 takes the pixel appearance rate (number of pixels) on the vertical axis and the pixel value (height of each pixel) on the horizontal axis, as shown in FIG. Generate a histogram. Then, the virtual reference plane setting unit 35 determines the mountain having the largest area when the histogram is divided by valleys (the mountain on the left side of the paper in FIG. 8), and the pixel value having the highest appearance rate among the peaks. Is the reference height H (the pixel value of the third histogram from the left side of FIG. 8). The histogram is created with a step size on the horizontal axis of 1 mm. Therefore, the pixel group having the height information of the reference height H includes not only the pixels having the height information of the reference height H but also within a predetermined allowable range from the reference height H (for example, about ± 1 mm). A configuration including pixels having height information (deviation height), that is, histograms on both sides of the histogram (second and fourth on the left side of FIG. 8) where the appearance rate peaks in the mountain on the left side of FIG. The pixel value may also be a pixel value having a reference height H. In this embodiment, as shown in FIG. 5 and FIG. 7, the plane formed from the upper surface of the article 50 of the second article 50 laminated in the height direction Z has the widest planar area, The plane corresponds to the virtual reference plane S in the basic image. Then, the upper surface of the article 50 (the third-layer article) whose bottom surface belongs to the virtual reference plane S is the uppermost surface in the container 51. Note that the article 50 (the third-layer article) whose bottom surface belongs to the virtual reference plane S corresponds to the base upper article of the present invention.

ところで、物品上面の高さを算出する方法として、上述のヒストグラムを用いる方法で直接的に算出する方法も考えられる。当該ヒストグラムで算出される物品上面の高さは、仮想基準面よりも高い位置にある図8の紙面右側で示される山に相当する。しかし、当該図8の紙面右側で示される山では、指標となる画素数(出現率)が少なく、画素値(高さ)が幅を有する(図8の例では3mm)為、実際の物品上面の高さとヒストグラムで算出される高さとでは誤差(図8例では2mm)が生じる可能性が高い。そこで、本願では、指標となる画素数が一番多い、すなわち、出現率がピークであり実際の高さとの誤差が少ないと考えられる面に仮想基準面を設定し、当該仮想基準面上に物品が存在する場合を仮定して、当該仮想基準面の基準高さHと既知である物品の3辺の寸法情報とから3つの異なる各仮定の収納姿勢における物品上面の高さを推測し、その高さに物品上面に対応する物品存在領域が存在することを検出できれば、実際の物品上面の高さとする方法を用いている。これにより、より正確な物品上面の高さを算出することができる。   By the way, as a method of calculating the height of the article upper surface, a method of directly calculating by the method using the above-described histogram is also conceivable. The height of the upper surface of the article calculated by the histogram corresponds to a mountain indicated on the right side of the sheet of FIG. 8 at a position higher than the virtual reference plane. However, since the number of pixels (appearance rate) serving as an index is small and the pixel value (height) has a width (3 mm in the example of FIG. 8) in the mountain shown on the right side of FIG. There is a high possibility that an error (2 mm in the example of FIG. 8) will occur between the height of and the height calculated by the histogram. Therefore, in the present application, a virtual reference plane is set on a plane where the number of pixels serving as an index is the largest, that is, the appearance rate is at a peak and the error from the actual height is small, and an article is placed on the virtual reference plane. Is estimated from the reference height H of the virtual reference surface and the dimensional information on the three sides of the known article, and the height of the article upper surface in each of three different assumed storage postures. If it can be detected that the article existence area corresponding to the article upper surface exists in the height, a method of setting the actual article upper surface height is used. Thereby, a more accurate height of the upper surface of the article can be calculated.

また、本実施形態では、図5及び図7に示すように、仮想基準面S上に不揃いな状態で3つの物品50(3層目の物品)が積層されている例を用いて説明しているが、仮想基準面S上に物品50(図6の紙面左側の物品)が存在しない場合もあり得る。例えば、図6の概念図において、紙面左側で示した仮想基準面S上の物品50が存在しないとしたとき、紙面右側で示すように、一段下の2層目の物品50の各収納姿勢における上面が容器51内の最上面となり得る。具体的には、2層目の物品50がすべて長さH1の辺が高さ方向に沿った収納姿勢(正立姿勢)で収納されており、2層目の物品50の上に3層目の物品50が載っていない場合には、最上面は仮想基準面Sとなる。また、当該2層目の物品50群に、横転等によって長さL1の辺が高さ方向に沿った収納姿勢(横転ロング姿勢)の物品50が含まれている場合には、H1<L1の為、当該横転ロング姿勢の物品50の物品上面が最上面となる。また、当該2層目の物品50群に、長さW1の辺が高さ方向に沿った姿勢(横転ショート姿勢)の物品50が含まれ、横転ロング姿勢の物品50が含まれない場合には、H1<W1の為、当該横転ショート姿勢の物品50の物品上面が最上面となる。そこで、仮想基準面設定部35は、物品上面が仮想基準面Sに属する物品であるベース段物品(本例では2層目の物品)の底面が属する面を仮想基準下面SSとしてさらに設定する。具体的には、仮想基準面設定部35は、仮想基準面Sの基準高さHから、記憶部40から取得した物品情報に含まれる正立姿勢である物品50の高さH1を引いた高さ「H−H1」の高さ情報を有する画素群により形成される平面を仮想基準下面SSとして設定する。また、仮想基準面設定部35は、設定した仮想基準面S及び仮想基準下面SSの情報を記憶部40に記憶させる。   Further, in the present embodiment, as illustrated in FIGS. 5 and 7, an example in which three articles 50 (third article) are stacked on the virtual reference plane S in an irregular manner will be described. However, the article 50 (the article on the left side in FIG. 6) on the virtual reference plane S may not exist. For example, in the conceptual diagram of FIG. 6, when there is no article 50 on the virtual reference plane S shown on the left side of the page, as shown on the right side of the page, The upper surface can be the uppermost surface in the container 51. Specifically, all the second-layer articles 50 are stored in a storage posture (upright posture) in which the sides of the length H1 are along the height direction, and the third-layer article 50 is placed on the second-layer article 50. When the article 50 is not placed, the top surface is the virtual reference plane S. Further, when the second-layer article 50 group includes articles 50 having a storage posture (rolling long posture) in which the side of the length L1 is along the height direction by rollover or the like, H1 <L1. Therefore, the upper surface of the article 50 in the rollover long posture is the uppermost surface. Further, in the case where the second-layer article 50 group includes the article 50 with the side of the length W1 along the height direction (the rollover short attitude) and does not include the article 50 with the rollover long attitude. Since H1 <W1, the upper surface of the article 50 in the rollover short posture is the uppermost surface. Therefore, the virtual reference plane setting unit 35 further sets the plane to which the bottom surface of the base article (the second article in this example) whose article upper surface belongs to the virtual reference plane S belongs as the virtual reference lower surface SS. Specifically, the virtual reference plane setting unit 35 subtracts the height H1 of the article 50 that is an upright posture included in the article information acquired from the storage unit 40 from the reference height H of the virtual reference plane S. A plane formed by the pixel group having the height information of “H−H1” is set as the virtual reference lower surface SS. Further, the virtual reference plane setting unit 35 causes the storage unit 40 to store information on the set virtual reference plane S and virtual reference lower surface SS.

単一高さ画像生成部36は、仮想基準面設定部35により設定された仮想基準面Sに底面が属する物品50であるベース上段物品(3層目の物品)が存在すると仮定した場合に、当該物品50の収納姿勢として仮定される3つの異なる仮定収納姿勢のそれぞれについて、当該仮定収納姿勢において上面となる面の容器底面からの論理高さを算出し、当該論理高さと同一の高さ情報を有する画素を基本画像から抽出して単一高さ画像を生成する。本実施形態では、物品50の仮定収納姿勢として、図6の紙面左側に示すように、仮想基準面S上での正立姿勢SC、横転ロング姿勢SA、横転ショート姿勢SBの3つが考えられる。そこで、単一高さ画像生成部36は、記憶部40から取得した物品50の寸法情報と仮想基準面Sの基準高さHとに基づいて、各仮定収納姿勢において上面となる面の容器底面からの論理高さを算出する。具体的には、単一高さ画像生成部36は、図6の紙面左側に示すように、正立姿勢SCの場合には「H+H1」、横転ロング姿勢SAの場合には「H+L1」、横転ショート姿勢SBの場合には「H+W1」と算出する。そして、仮想基準面設定部35は、これらの算出した各論理高さの高さ情報を有する画素のうち容器51の内側領域に存在する画素を前記基本画像から抽出して、それぞれの高さの高さ画像を生成する。   When it is assumed that the single-height image generation unit 36 has a base upper article (third article) that is the article 50 to which the bottom belongs to the virtual reference plane S set by the virtual reference plane setting unit 35, For each of the three different assumed storage postures assumed as the storage posture of the article 50, the logical height from the container bottom surface of the upper surface in the assumed storage posture is calculated, and the same height information as the logical height is calculated. Is extracted from the basic image to generate a single height image. In the present embodiment, as the assumed storage posture of the article 50, as shown on the left side of FIG. Therefore, the single height image generation unit 36, based on the dimension information of the article 50 acquired from the storage unit 40 and the reference height H of the virtual reference surface S, the container bottom surface that is the top surface in each assumed storage posture. Calculate the logical height from. Specifically, as shown on the left side of FIG. 6, the single height image generation unit 36 “H + H1” in the upright posture SC, “H + L1” in the rollover long posture SA, and rollover. In the case of the short posture SB, “H + W1” is calculated. Then, the virtual reference plane setting unit 35 extracts, from the basic image, pixels existing in the inner region of the container 51 from among the pixels having the height information of the calculated logical heights, and for each height. Generate a height image.

単一高さ画像生成部36は、さらに、仮想基準下面SS上でのベース段物品(2層目の物品)の収納姿勢として仮定される3つの新たな仮定収納姿勢のそれぞれについて、当該新たな仮定収納姿勢において上面となる面の容器底面からの論理高さを算出し、当該論理高さと同一の高さ情報を有する画素を基本画像から抽出して3つの新たな単一高さ画像を生成する。本実施形態では、図6の紙面右側に示すように、3つの新たな仮定収納姿勢として、仮想基準下面SS上での正立姿勢SSC、横転ロング姿勢SSA、横転ショートSSB姿勢が考えられる。単一高さ画像生成部36は、記憶部40から取得した物品50の寸法情報と仮想基準下面SSの高さ「H−H1」とに基づいて、各仮定収納姿勢において上面となる面の容器底面からの論理高さを算出する。具体的には、単一高さ画像生成部36は、図6紙面右側に示すように、正立姿勢SSCの場合には「H」、横転ロング姿勢SSAの場合には「H−H1+L1」、横転ショート姿勢SSBの場合には「H−H1+W1」と算出する。そして、仮想基準面設定部35は、これらの算出した各高さの高さ情報を有する画素のうち容器51の内側領域に存在する画素を前記基本画像から抽出して、それぞれの高さの高さ画像を生成する。   The single-height image generation unit 36 further relates to each of the three new assumed storage postures assumed as the storage postures of the base stage article (second-layer article) on the virtual reference lower surface SS. Calculates the logical height of the upper surface in the assumed storage posture from the bottom surface of the container, and extracts three pixels having the same height information as the logical height from the basic image to generate three new single height images. To do. In the present embodiment, as shown on the right side of FIG. 6, as the three new assumed storage postures, an upright posture SSC, a rollover long posture SSA, and a rollover short SSB posture on the virtual reference lower surface SS can be considered. The single-height image generation unit 36 is a container on the upper surface in each assumed storage posture based on the dimension information of the article 50 acquired from the storage unit 40 and the height “H-H1” of the virtual reference lower surface SS. Calculate the logical height from the bottom. Specifically, as shown on the right side of FIG. 6, the single height image generation unit 36 is “H” in the upright posture SSC, “H−H1 + L1” in the rollover long posture SSA, In the case of the rollover short posture SSB, “H−H1 + W1” is calculated. Then, the virtual reference plane setting unit 35 extracts pixels existing in the inner region of the container 51 from the pixels having the calculated height information of each height from the basic image, and calculates the height of each height. Generate an image.

そして、単一高さ画像生成部36は、生成したこれらの6つの仮定収納姿勢の上面に対応する単一高さ画像のそれぞれについて、2値化処理を行い、物品50の上面に対応する領域(物品探索領域)が存在するか否かを判別する。例えば、ベース上段物品が一つも存在しない場合、すなわち、仮想基準面S上に物品50が存在しない場合には、これらの仮想基準面S上での正立姿勢SC、横転ロング姿勢SA、横転ショート姿勢SBの3つの仮定収納姿勢に対応する単一高さ画像には、物品50の上面に対応する領域が存在しない。よって、単一高さ画像生成部36は、これらの単一高さ画像には物品探索領域は存在しないと判別する。一方、例えば、仮想基準下面SS上に横転ロング姿勢SSAのベース段物品が存在する場合には、仮想基準下面SS上での横転ロング姿勢SSAに対応する単一高さ画像には、物品50の上面に対応する領域が存在する。よって、単一高さ画像生成部36は、仮想基準下面SS上での横転ロング姿勢SSAに対応する単一高さ画像には、物品探索領域が存在すると判別する。なお、ここにおける、当該物品探索領域が存在するとは、予め定められたある一定範囲以上の連続した領域が存在することをいい、本例では、物品50の各収納姿勢に対応する単一高さ画像中に、当該対応する仮定収納姿勢において上面となる矩形面の表面積以上の連続した領域が含まれる場合に物品探索領域が存在するとする。なお、当該矩形面の面積×予め定められた閾値%(例えば、90%)以上の連続した領域である場合に物品探索領域が存在するとしてもよい。   Then, the single height image generation unit 36 performs binarization processing on each of the generated single height images corresponding to the upper surfaces of the six assumed storage postures, and generates a region corresponding to the upper surface of the article 50. It is determined whether or not (article search area) exists. For example, when there is no base upper article, that is, when the article 50 does not exist on the virtual reference plane S, the upright posture SC, the rollover long posture SA, and the rollover short on these virtual reference surfaces S. There is no region corresponding to the upper surface of the article 50 in the single height image corresponding to the three assumed storage postures of the posture SB. Therefore, the single height image generation unit 36 determines that there is no article search region in these single height images. On the other hand, for example, when there is a base step article in the rollover long posture SSA on the virtual reference lower surface SS, a single height image corresponding to the rollover long posture SSA on the virtual reference lower surface SS is displayed on the single height image. There is a region corresponding to the upper surface. Therefore, the single height image generation unit 36 determines that the article search region exists in the single height image corresponding to the rollover long posture SSA on the virtual reference lower surface SS. Here, the existence of the article search area means that there is a continuous area that is equal to or larger than a predetermined range, and in this example, a single height corresponding to each storage posture of the article 50. It is assumed that an article search region exists when an image includes a continuous region that is equal to or larger than the surface area of the rectangular surface that is the upper surface in the corresponding assumed storage posture. The article search area may exist when the area is a continuous area equal to or larger than the area of the rectangular surface × a predetermined threshold% (for example, 90%).

また、本実施形態では、単一高さ画像生成部36は、前記物品探索領域が存在すると判別した単一高さ画像については、有効な単一高さ画像であるとして、カラー画像に変換し、物品探索範囲として記憶部40に記憶させる。そして、単一高さ画像生成部36は、6つの仮定収納姿勢に対応する単一高さ画像すべてに対して、同様の物品探索領域が存在するか否かの判別処理を実行し、当該判別処理が終了すると、有効な単一高さ画像が見つかった場合には、物品探索処理部37に物品探索処理を実行するよう指令する。一方、単一高さ画像生成部36は、6つの仮定収納姿勢に対応する6つの単一高さ画像のいずれにも物品探索領域が存在しないと判別する場合には、上位コントローラ2へその旨の情報を出力する。そして、上位コントローラ2のリトライ制御部23がリトライ処理を実行する。図7の例では、正立姿勢のベース上段物品及び正立姿勢のベース段物品が存在している為、単一高さ画像生成部36は、「H」及び「H1+H」の高さの単一高さ画像において物品探索領域が存在すると判別し、当該「H」及び「H1+H」の高さの単一高さ画像を物品探索範囲として設定し、記憶部40に記憶する。   In the present embodiment, the single height image generator 36 converts the single height image determined to have the article search region into a color image, assuming that the single height image is an effective single height image. Then, it is stored in the storage unit 40 as an article search range. Then, the single height image generation unit 36 performs a determination process for determining whether or not a similar article search region exists for all the single height images corresponding to the six assumed storage postures, and performs the determination. When the process ends, if an effective single height image is found, the article search processing unit 37 is instructed to execute the article search process. On the other hand, when the single height image generation unit 36 determines that the article search region does not exist in any of the six single height images corresponding to the six assumed storage postures, the single height image generation unit 36 notifies the host controller 2 to that effect. The information of is output. Then, the retry control unit 23 of the host controller 2 executes a retry process. In the example of FIG. 7, since there is an upright base upper article and an upright base article, the single-height image generation unit 36 has a single height of “H” and “H1 + H”. It is determined that an article search area exists in the one-height image, and a single height image having the heights “H” and “H1 + H” is set as an article search range and stored in the storage unit 40.

物品探索処理部37は、基本画像に対して、テンプレート画像を用いてパターンマッチング処理を実行し、当該パターンマッチング処理において物品存在領域M(後述)を検出できない場合にエッジ検出処理を実行する機能部である。物品探索処理部37は、パターンマッチング処理部38とエッジ検出処理部39とを備える。   The article search processing unit 37 performs a pattern matching process on the basic image using a template image, and executes an edge detection process when an article presence region M (described later) cannot be detected in the pattern matching process. It is. The article search processing unit 37 includes a pattern matching processing unit 38 and an edge detection processing unit 39.

パターンマッチング処理部38は、物品探索範囲設定部34にて物品探索範囲として設定された単一高さ画像内に含まれる、テンプレート画像との一致度が予め定められた閾値以上である領域を物品存在領域Mとして検出する機能部である。また、本実施形態では、パターンマッチング処理部38は、単一高さ画像生成部36により生成された仮定収納姿勢に応じた有効な単一高さ画像のうち、高さが高いものから順に、パターンマッチング処理及びエッジ検出処理を実行する。具体的には、パターンマッチング処理部38は、まず、ベース上段物品の3つの仮定収納姿勢の中で、一番高い上面を有する仮定収納姿勢(本例では横転ロング姿勢)をSA姿勢とし、二番目に高い上面を有する仮定収納姿勢(本例では横転ショート姿勢)をSB姿勢、一番高さの低い上面を有する仮定収納姿勢(本例では正立姿勢)をSC姿勢とし、同様に、ベース段物品の3つの仮定収納姿勢についても物品上面が高い順にSSA姿勢、SSB姿勢、SSC姿勢として、これらの仮定収納姿勢とそれに対応する単一高さ画像とを対応づけて記憶部40に記憶させる。なお、その際に、パターンマッチング処理部38は、各姿勢において物品50の上面となる矩形面の寸法情報や縦横比も各姿勢に対応づけて記憶させる。そして、パターンマッチング処理部38は、SA姿勢、SB姿勢、SC姿勢、SSA姿勢、SSB姿勢、SSC姿勢に対応する高さの高い単一高さ画像の順に、パターンマッチング処理を実行する。図7の例では、SA姿勢、SB姿勢、SSA姿勢、SSB姿勢に対応する単一高さ画像が記憶部40には記憶されていない為、これらの姿勢については対応づけられる単一高さ画像が存在せず、単一高さ画像は対応づけられない。一方、SC姿勢及びSSC姿勢については、対応する単一高さ画像(「H」及び「H1+H」の単一高さ画像)が記憶部40に記憶されている為、これらの単一高さ画像については、各姿勢(SC姿勢及びSSC姿勢)、当該各姿勢において物品50の上面となる矩形面の寸法情報(L1×W1)、及び縦横比(W1:L1)等が対応づけられて再度記憶部40に記憶される。そして、パターンマッチング処理部38は、高さの大きいSC姿勢の単一高さ画像(「H1+H」の単一高さ画像)から先にパターンマッチング処理を実行する。なお、パターンマッチング処理部38は、対応する単一高さ画像が有効でない仮定収納姿勢(SA姿勢、SB姿勢、SSA姿勢、SSB姿勢)については、記憶部40に当該仮定収納姿勢に対応する単一高さ画像が保存されていない為、パターンマッチング処理を実行しない。   The pattern matching processing unit 38 selects an area in the single height image set as the article search range by the article search range setting unit 34 and having a matching degree with a template image equal to or greater than a predetermined threshold. This is a functional unit that is detected as the existence region M. Moreover, in this embodiment, the pattern matching process part 38 is an effective single height image according to the assumption stowed attitude | position produced | generated by the single height image generation part 36 in an order from a high height in order. A pattern matching process and an edge detection process are executed. Specifically, the pattern matching processing unit 38 first sets the assumed storage posture (the rollover long posture in this example) having the highest upper surface among the three assumed storage postures of the base upper article as the SA posture, The assumed stowed posture with the second highest surface (in this example, the rollover short posture) is the SB posture, and the assumed stowed posture with the lowest upper surface (in this example, the upright posture) is the SC posture. The three assumed storage postures of the corrugated article are also stored in the storage unit 40 as the SSA posture, the SSB posture, and the SSC posture in ascending order of the upper surface of the article in association with these assumed storage postures and the corresponding single height images. . At that time, the pattern matching processing unit 38 also stores the dimension information and the aspect ratio of the rectangular surface that is the upper surface of the article 50 in each posture in association with each posture. And the pattern matching process part 38 performs a pattern matching process in order of the high height single height image corresponding to SA posture, SB posture, SC posture, SSA posture, SSB posture, and SSC posture. In the example of FIG. 7, since the single height images corresponding to the SA posture, SB posture, SSA posture, and SSB posture are not stored in the storage unit 40, single height images associated with these postures. Does not exist and no single height image is associated. On the other hand, for the SC posture and the SSC posture, corresponding single height images (single height images of “H” and “H1 + H”) are stored in the storage unit 40. Is stored again in association with each posture (SC posture and SSC posture), dimension information (L1 × W1) of the rectangular surface that is the upper surface of the article 50 in each posture, aspect ratio (W1: L1), and the like. Stored in the unit 40. Then, the pattern matching processing unit 38 executes the pattern matching processing first from the single height image (“H1 + H” single height image) of the SC posture having a large height. Note that the pattern matching processing unit 38 stores, in the storage unit 40, a single corresponding to the assumed storage posture for the assumed storage posture (SA posture, SB posture, SSA posture, SSB posture) for which the corresponding single height image is not valid. Since the one-height image is not stored, the pattern matching process is not executed.

パターンマッチング処理部38は、物品探索範囲設定部34より物品探索処理の実行指令を受けると、記憶部40から、物品情報に含まれる一のテンプレート画像を探索テンプレートとして取得するとともに、物品探索範囲として設定された単一高さ画像のうちの一番高さの高い単一高さ画像情報を取得する。そして、パターンマッチング処理部38は、まず、探索テンプレートの寸法と当該取得した単一高さ画像に対応する仮定収納姿勢において上面となる矩形面(以下、単に仮定収納姿勢の上面)の寸法とが一致するか及び相似関係であるかを検出する。当該仮定収納姿勢の上面の寸法が一致するとともに相似関係である場合には、パターンマッチング処理部38は、当該単一高さ画像のカラー画像に探索テンプレートをマッチングさせていく。また、当該カラー画像の分解能と探索テンプレートの分解能とが異なる場合には、これらの分解能から算出した倍率で当該カラー画像を拡大し、当該拡大したカラー画像に探索テンプレートをマッチングさせていく。そして、パターンマッチング処理部38は、当該カラー画像中に、探索テンプレートの画像と一致度が予め定められた閾値以上(例えば、探索テンプレートを構成する画素数の80%以上)である領域を検出すると、当該検出した領域を物品存在領域Mとして記憶部40に記憶させるとともに、物品位置特定部41に動作指令を出力する。なお、その際に、パターンマッチング法で検出した旨、当該検出した際の物品探索範囲である単一高さ画像に対応する仮定収納姿勢の情報、及び当該仮定収納姿勢の物品50が属する段(ベース段若しくはベース上段)(以下、検出段)も併せて記憶させる。一方、パターンマッチング処理部38は、探索テンプレートと仮定収納姿勢の上面との寸法が一致しない場合や相似関係でない場合、若しくは、当該探索テンプレートの画像と一致度が予め定められた閾値以上である領域を検出できなかった場合には、物品情報に含まれる他のテンプレート画像を探索テンプレートとして記憶部40から取得し、再度、上記同様の処理を実行する。そして、物品情報に含まれる全てのテンプレート画像を用いてマッチング処理を実行しても物品存在領域Mを検出できなかった場合には、エッジ検出処理部39に動作指令を出力する。また、探索テンプレートの寸法は、マスター登録時の画像サイズと分解能とから算出することができる。なお、本実施形態のテンプレート画像は、カラー画像であり、かつ、各矩形面に施された模様も含んでいる。   When the pattern matching processing unit 38 receives an execution command for the article search process from the article search range setting unit 34, the pattern matching processing unit 38 acquires one template image included in the article information from the storage unit 40 as a search template, and as an article search range. The single-height image information having the highest height among the set single-height images is acquired. Then, the pattern matching processing unit 38 first determines the size of the search template and the size of the rectangular surface (hereinafter simply referred to as the upper surface of the assumed storage posture) as the upper surface in the assumed storage posture corresponding to the acquired single height image. Detect whether they match and are similar. If the dimensions of the upper surface of the assumed storage posture match and are similar, the pattern matching processing unit 38 matches the search template with the color image of the single height image. When the resolution of the color image and the resolution of the search template are different, the color image is enlarged at a magnification calculated from these resolutions, and the search template is matched with the enlarged color image. Then, when the pattern matching processing unit 38 detects an area in the color image where the degree of coincidence with the search template image is equal to or higher than a predetermined threshold (for example, 80% or more of the number of pixels constituting the search template). The detected area is stored in the storage unit 40 as the article presence area M, and an operation command is output to the article position specifying unit 41. At this time, the fact that the pattern matching method has been detected, the information on the assumed storage posture corresponding to the single height image that is the article search range at the time of detection, and the stage to which the article 50 in the assumed storage posture belongs ( Base stage or base upper stage (hereinafter, detection stage) is also stored. On the other hand, the pattern matching processing unit 38 is a region where the dimensions of the search template and the upper surface of the assumed storage posture do not match or are not similar, or the degree of match with the image of the search template is equal to or greater than a predetermined threshold. Is not detected from the storage unit 40 as a search template, and the same processing as described above is executed again. If the article presence region M cannot be detected even when the matching process is executed using all the template images included in the article information, an operation command is output to the edge detection processing unit 39. Further, the dimensions of the search template can be calculated from the image size and resolution at the time of master registration. Note that the template image of the present embodiment is a color image and includes a pattern formed on each rectangular surface.

また、エッジ検出処理部39から、再度パターンマッチング処理を実行する旨の動作指令があると、パターンマッチング処理部38は、記憶部40に格納されている他の物品探索範囲として設定された単一高さ画像のうち、二番目に高さの高い単一高さ画像情報を取得して、当該新たに取得した単一高さ画像について、上述した処理と同様のパターンマッチング処理を実行する。   Further, when there is an operation command to execute the pattern matching process again from the edge detection processing unit 39, the pattern matching processing unit 38 sets the single article search range stored in the storage unit 40 as a single item. Among the height images, single-height image information having the second highest height is acquired, and pattern matching processing similar to the above-described processing is executed for the newly acquired single-height image.

図7〜図10の例を用いて説明すると、ベース上段物品の正立姿勢(SC姿勢)における物品上面に対応する単一高さ画像T1が、記憶部40に記憶されている単一高さ画像のうち一番高さの高い単一高さ画像(「H+H1」の高さ画像)である。よって、パターンマッチング処理部38は、当該単一高さ画像T1の情報及び探索テンプレートとしてテンプレート画像の一つであるテンプレート画像P1を記憶部40から取得する。しかし、当該テンプレート画像P1とSC姿勢における物品上面の矩形とは、相似関係でもなく、寸法も異なる。そこで、パターンマッチング処理部38は、単一高さ画像T1においてテンプレート画像P1とマッチングする領域、すなわち物品存在領域Mはなかったとして、別のテンプレート画像P2を記憶部40から探索テンプレートとして取得する。当該テンプレート画像P2とSC姿勢における物品上面の矩形面の寸法は一致するとともに相似関係である。よって、パターンマッチング処理部38は、当該単一高さ画像T1のカラー画像にテンプレート画像P2をマッチングさせていく。そして、パターンマッチング処理部38は、図10の単一高さ画像T1の紙面左下の領域に示すように、当該テンプレート画像P2の画像と一致度が予め定められた閾値以上である物品存在領域Mを検出する。そして、パターンマッチング処理部38は、単一高さ画像T1に対応する仮定収納姿勢であるSC姿勢の情報、物品存在領域Mの情報、及び検出段であるベース上段物品の情報等を記憶部40に記憶させる。   7-10, the single height image T1 corresponding to the upper surface of the article in the upright posture (SC posture) of the base upper article is a single height stored in the storage unit 40. It is a single height image (height image of “H + H1”) having the highest height among the images. Therefore, the pattern matching processing unit 38 acquires the information of the single height image T1 and the template image P1 that is one of the template images as a search template from the storage unit 40. However, the template image P1 and the rectangle on the upper surface of the article in the SC posture are not similar and have different dimensions. Therefore, the pattern matching processing unit 38 acquires another template image P2 from the storage unit 40 as a search template, assuming that there is no region matching the template image P1 in the single height image T1, that is, the article presence region M. The dimensions of the rectangular surface of the upper surface of the article in the template image P2 and the SC posture match and have a similar relationship. Therefore, the pattern matching processing unit 38 matches the template image P2 with the color image of the single height image T1. Then, as shown in the lower left area of the single height image T1 in FIG. 10, the pattern matching processing unit 38 has an article presence area M whose degree of coincidence with the image of the template image P2 is greater than or equal to a predetermined threshold value. Is detected. Then, the pattern matching processing unit 38 stores information on the SC posture, which is the assumed storage posture corresponding to the single height image T1, information on the article existence region M, information on the base upper article, which is the detection stage, and the like. Remember me.

エッジ検出処理部39は、パターンマッチング処理部38から動作指令を受けると、パターンマッチング処理部38において用いられた単一高さ画像内に含まれるエッジ成分を抽出してエッジ画像を生成する。そして、エッジ検出処理部39は、当該生成したエッジ画像中に含まれる、物品50の各矩形面の外形に基づいて生成した矩形モデルとの関係が予め定められた条件に合致する領域を物品存在領域Mとして検出する機能部である。具体的には、エッジ検出処理部39は、まず、記憶部40から、パターンマッチング処理部38で用いた単一高さ画像に対応する仮定収納姿勢の上面の寸法情報や縦横比の情報を取得する。そして、エッジ検出処理部39は、これらの情報に基づいて、当該矩形面の外形のテンプレートである矩形モデルを生成する。一方、エッジ検出処理部39は、パターンマッチング処理部38で用いた単一高さ画像内に含まれるエッジ成分を抽出してエッジ画像を生成する。そして、エッジ検出処理部39は、当該生成したエッジ画像と矩形モデルとを用いて、当該エッジ画像中における当該矩形モデルとの関係が予め定められた条件に合致する領域を探索する。そして、エッジ検出処理部39は、当該矩形モデルとの関係が予め定められた条件(例えば、矩形モデルの4辺のうちの3辺に一致する3本のエッジに囲まれている領域等)に合致する領域を検出すると、当該領域を物品存在領域Mとして記憶部40に記憶させるとともに、物品位置特定部41に動作指令を出力する。なお、その際に、エッジ検出処理部39は、エッジ検出で検出した旨、当該検出した際の物品探索範囲に設定されている単一高さ画像に対応する仮定収納姿勢の情報及び検出段も併せて記憶させる。   When receiving an operation command from the pattern matching processing unit 38, the edge detection processing unit 39 extracts an edge component included in the single height image used in the pattern matching processing unit 38 and generates an edge image. Then, the edge detection processing unit 39 sets an area in which the relationship between the rectangular model generated based on the outline of each rectangular surface of the article 50 included in the generated edge image matches a predetermined condition. This is a functional unit that is detected as a region M. Specifically, the edge detection processing unit 39 first obtains dimensional information and aspect ratio information on the upper surface of the assumed storage posture corresponding to the single height image used in the pattern matching processing unit 38 from the storage unit 40. To do. And the edge detection process part 39 produces | generates the rectangular model which is a template of the external shape of the said rectangular surface based on such information. On the other hand, the edge detection processing unit 39 extracts edge components included in the single height image used in the pattern matching processing unit 38 to generate an edge image. Then, using the generated edge image and the rectangular model, the edge detection processing unit 39 searches for an area in the edge image where the relationship with the rectangular model matches a predetermined condition. Then, the edge detection processing unit 39 satisfies a predetermined relationship with the rectangular model (for example, an area surrounded by three edges that match three of the four sides of the rectangular model). When a matching area is detected, the area is stored in the storage unit 40 as the article presence area M, and an operation command is output to the article position specifying unit 41. At that time, the edge detection processing unit 39 also includes information indicating that detection has been performed by edge detection, information on the assumed storage posture corresponding to the single height image set in the article search range at the time of detection, and a detection stage. Also memorize it.

一方、エッジ検出処理部39は、エッジ画像中に、矩形モデルとの関係が予め定められた条件に合致する領域を検出できなかった場合には、パターンマッチング処理部38に、再度パターンマッチング処理を実行する旨の動作指令を出力する。なお、エッジ検出処理部39は、当該再度パターンマッチング処理を実行する旨の動作指令の出力数をカウントしており、当該動作指令の出力時に、当該動作指令の出力回数が「物品探索範囲として設定された単一高さ画像数−1」である場合には、当該動作指令を出力せずに、物品探索範囲として設定されたいずれの単一高さ画像にも、物品存在領域Mを検出できなかったとして、上位コントローラ2へその旨の情報を出力する。そして、上位コントローラ2のリトライ制御部23によりリトライ処理が実行される。   On the other hand, if the edge detection processing unit 39 fails to detect an area in the edge image that matches the predetermined condition with the rectangular model, the edge detection processing unit 39 performs the pattern matching processing again on the pattern matching processing unit 38. An operation command to execute is output. Note that the edge detection processing unit 39 counts the number of outputs of the operation command to execute the pattern matching process again, and when the operation command is output, the number of output of the operation command is set as “article search range”. If the number of single height images is −1 ”, the article presence region M can be detected in any single height image set as the article search range without outputting the operation command. If not, information indicating that is output to the host controller 2. Then, the retry process is executed by the retry control unit 23 of the host controller 2.

物品位置特定部41は、認識対象である物品50の容器51内における物品上面の3次元位置及び平面視姿勢を特定する機能部である。物品位置特定部41は、収納状態判別部42と平面位置特定部43とを備える。本実施形態では、物品位置特定部41は、物品探索処理部37(パターンマッチング処理部38若しくはエッジ検出処理部39)から動作指令を受けると、記憶部40から物品存在領域Mの情報等を取得する。そして、収納状態判別部42が、当該物品50の基準面に対する収納姿勢を判別するとともに認識対象である物品50の物品上面の容器51内における高さ方向Zの位置を特定し、平面位置特定部43が、当該物品存在領域Mから物品50の容器51内における平面位置及び平面視姿勢を特定する。そして、物品位置特定部41は、当該特定した容器内51における物品上面の3次元位置及び平面視姿勢の情報をチェック処理部45に出力する。物品位置特定部41は、当該チェック処理部45から正常である旨の応答を受信すると、当該特定した容器内51における物品上面の3次元位置及び平面視姿勢を確定し、これらの情報を上位コントローラ2のロボット制御部24へ認識結果情報として出力する。   The article position specifying unit 41 is a functional unit that specifies a three-dimensional position and a planar view posture of the article upper surface in the container 51 of the article 50 to be recognized. The article position specifying unit 41 includes a storage state determining unit 42 and a planar position specifying unit 43. In the present embodiment, upon receiving an operation command from the article search processing unit 37 (the pattern matching processing unit 38 or the edge detection processing unit 39), the article position specifying unit 41 acquires information on the article presence region M from the storage unit 40. To do. Then, the storage state determination unit 42 determines the storage posture of the article 50 with respect to the reference plane, specifies the position in the height direction Z in the container 51 of the upper surface of the article 50 to be recognized, and the plane position specification unit 43 specifies the planar position and planar view posture of the article 50 in the container 51 from the article existence region M. Then, the article position specifying unit 41 outputs the information on the three-dimensional position and the planar view posture of the article upper surface in the specified container 51 to the check processing unit 45. When the article position specifying unit 41 receives a response indicating that the article is normal from the check processing unit 45, the article position specifying unit 41 determines the three-dimensional position and the planar view posture of the article upper surface in the specified container 51, and stores these information in the host controller. 2 is output as recognition result information to the robot controller 24.

収納状態判別部42は、物品探索処理部37の検出情報と、物品50の寸法情報とから、物品50が矩形面のいずれの面を上面として収納されているかの収納姿勢を判別するとともに、物品50の底面が属している基準面に対する物品上面の高さを算出する機能部である。そして、本実施形態では、収納状態判別部42は、記憶部40に格納されている単一高さ画像のうち、物品探索処理部37にて物品存在領域Mが検出された単一高さ画像に対応する仮定収納姿勢が、ベース上段物品が存在すると仮定した場合の仮定収納姿勢の一つである場合には、物品存在領域Mが検出された単一高さ画像に対応する仮定収納姿勢を実際の収納姿勢であるとして判別するとともに、仮想基準面Sを実際に物品50の底面が属している基準面と判別する。また、収納状態判別部42は、記憶部40に格納されている単一高さ画像のうち、物品探索処理部37にて物品存在領域Mが検出された単一高さ画像に対応する仮定収納姿勢が、ベース段物品が存在すると仮定した場合の3つの新たな仮定収納姿勢の一つである場合には、記憶部40に格納されている単一高さ画像のうち、物品探索処理部37にて物品存在領域Mが検出された単一高さ画像に対応する仮定収納姿勢を、実際の収納姿勢であるとして判別するとともに、仮想基準下面SSを基準面と判別する。   The storage state discriminating unit 42 discriminates the storage posture of the rectangular article from which the article 50 is stored from the detection information of the article search processing unit 37 and the dimension information of the article 50, and the article. This is a functional unit that calculates the height of the upper surface of the article relative to the reference surface to which the bottom surface of 50 belongs. In the present embodiment, the storage state determination unit 42 is a single height image in which the article presence region M is detected by the article search processing unit 37 among the single height images stored in the storage unit 40. Is one of the assumed storage postures when it is assumed that the base upper article is present, the assumed storage posture corresponding to the single height image from which the article presence region M is detected is The virtual reference plane S is determined to be the reference plane to which the bottom surface of the article 50 actually belongs while being determined as being in the actual storage posture. Further, the storage state determination unit 42 is a hypothetical storage corresponding to a single height image in which the article presence region M is detected by the article search processing unit 37 among the single height images stored in the storage unit 40. When the posture is one of three new assumed storage postures when it is assumed that the base stage article exists, the article search processing unit 37 among the single height images stored in the storage unit 40. In FIG. 5, the assumed storage posture corresponding to the single height image in which the article presence area M is detected is determined as the actual storage posture, and the virtual reference lower surface SS is determined as the reference surface.

具体的には、収納状態判別部42は、物品探索処理部37の検出情報としての物品存在領域Mの情報、当該物品存在領域Mが検出された単一高さ画像に対応する仮定収納姿勢の情報及び検出段を記憶部40から取得する。そして、収納状態判別部42は、当該物品存在領域Mが検出された単一高さ画像に対応する仮定収納姿勢を物品50の収納姿勢として判別する。図7〜図10の例を用いて説明すると、収納状態判別部42は、記憶部40から物品存在領域Mの情報を取得する際に、当該物品存在領域Mが検出された単一高さ画像T1に対応するSC姿勢の情報及び検出段も取得する。そして、収納状態判別部42は、収納姿勢をベース上段物品の正立姿勢であると判別するとともに、仮想基準面Sを基準面と判別する。また、収納状態判別部42は、仮想基準面S若しくは仮想基準下面SSの容器底面からの高さと、基準面に対する物品上面の高さとから、物品上面の容器底面からの高さを算出する。図7〜図10の例では、収納状態判別部42は、基準面と判別した仮想基準面Sの高さ「H」と、当該基準面に対する物品上面の高さ、すなわち当該判別した収納姿勢(正立姿勢)における高さ方向に沿う辺の長さ「H1」とから、当該物品上面の容器底面からの高さ「H+H1」を算出する。これにより、容器51内における物品上面の高さ方向Zの位置を特定することができる。なお、物品存在領域Mが検出された単一高さ画像Tの高さを物品上面の容器底面からの高さとしてもよい。   Specifically, the storage state determination unit 42 has information on the article presence area M as detection information of the article search processing unit 37, and an assumed storage posture corresponding to the single height image in which the article presence area M is detected. Information and a detection stage are acquired from the storage unit 40. Then, the storage state determination unit 42 determines the assumed storage posture corresponding to the single height image in which the article presence area M is detected as the storage posture of the article 50. 7 to 10, when the storage state determination unit 42 acquires information on the article presence area M from the storage unit 40, the single height image in which the article presence area M is detected. Information on the SC posture and the detection stage corresponding to T1 are also acquired. Then, the storage state determination unit 42 determines that the storage posture is an upright posture of the base upper article, and determines the virtual reference surface S as a reference surface. The storage state determination unit 42 calculates the height of the article upper surface from the container bottom surface from the height of the virtual reference surface S or the virtual reference lower surface SS from the container bottom surface and the height of the article upper surface with respect to the reference surface. 7 to 10, the storage state determination unit 42 determines the height “H” of the virtual reference surface S determined as the reference surface and the height of the upper surface of the article relative to the reference surface, that is, the determined storage posture ( From the length “H1” of the side along the height direction in the upright posture), the height “H + H1” of the upper surface of the article from the bottom surface of the container is calculated. Thereby, the position of the upper surface of the article in the container 51 in the height direction Z can be specified. Note that the height of the single height image T in which the article presence region M is detected may be the height from the bottom of the container on the top of the article.

また、収納状態判別部42は、記憶部40に記憶されている物品50の寸法情報に基づいて、物品50の3辺の中に、当該各辺の長さの差が予め定められた判別限界値よりも小さい一対の類似辺を含むと判別した場合であって、前記一対の類似辺のうちの短い方の辺を高さ方向に沿わせた姿勢を収納姿勢として判別したときには、当該判別の結果である収納姿勢を、前記一対の類似辺のうちの長い方の辺を高さ方向に沿わせた姿勢に更新する。図7〜図10の例では、物品50の3辺の寸法(H1,W1,L1)のうち、W1とH1との差が判別限界値(例えば、2cm)よりも小さく、ほぼ同じ長さ(W1がH1よりも少しだけ大きい)である場合には、収納状態判別部42が、収納姿勢として、H1の辺を高さ方向に沿わせたSC姿勢と判別した場合であっても、W1の辺を高さ方向に沿わせたSB姿勢と判別し、当該判別結果を更新する。   The storage state determination unit 42 also has a determination limit in which a difference in length of each side is predetermined among the three sides of the article 50 based on the dimension information of the article 50 stored in the storage unit 40. A pair of similar sides smaller than the value is included, and when the posture in which the shorter side of the pair of similar sides is along the height direction is determined as the storage posture, The storage posture as a result is updated to a posture in which the longer side of the pair of similar sides is along the height direction. 7 to 10, the difference between W1 and H1 among the dimensions (H1, W1, L1) of the three sides of the article 50 is smaller than the determination limit value (for example, 2 cm), and has almost the same length ( W1 is slightly larger than H1), even when the storage state determination unit 42 determines that the storage posture is the SC posture in which the side of H1 is along the height direction, It is determined that the side is an SB posture along the height direction, and the determination result is updated.

平面位置特定部43は、物品探索処理部37の検出情報に基づいて、物品存在領域Mの基本画像内における位置及び基本画像に対する傾きから、物品上面の平面位置及び平面視姿勢を特定する機能部である。本実施形態では、平面位置特定部43は、容器51内における物品存在領域Mの中心位置M1を物品上面の平面位置と特定するとともに、容器51に対する物品存在領域Mの回転角(傾き)を物品上面の平面視姿勢として特定する。具体的には、平面位置特定部43は、基本画像中において、容器51の搬送方向WXにおける下流側かつ幅方向WYにおける物品搬送コンベア11側の隅における基準点を原点Oとして、原点Oから容器51内における容器内搬送方向Xに沿う方向にX軸を、容器内幅方向Yに沿う方向にY軸をとる(すなわち、容器内座標系を設定する)とともに、記憶部40から物品存在領域Mの情報を取得する。そして、平面位置特定部43は、図11に示すように、当該物品存在領域Mの中心位置M1の容器内座標(X,Y)を算出し、当該中心位置M1の容器内座標(X,Y)を物品上面の平面位置として特定する。また、平面位置特定部43は、物品存在領域Mに対応する矩形領域を容器51の矩形領域と相似となるように配置した基準角度(0°)から、当該物品存在領域Mに対応する矩形領域が当該物品存在領域Mの中心位置M1を中心として回転した回転角を算出し、当該回転角を平面視姿勢と特定する。画像座標系における容器51の原点Oは、撮像装置8の設置位置及び基準画像における長さと実距離との関係から定まる変換係数を用いて、基準座標系における座標に変換することができる。これにより、平面位置特定部43は、容器内座標系における中心位置M1の容器内座標(X,Y)を画像座標系に変換して、さらに基準座標系に変換し、認識結果情報としてロボット制御部24へ出力する。このように、認識結果情報としては中心位置M1の3次元位置の世界座標(画像座標)が含まれる。   The plane position specifying unit 43 is a functional unit that specifies the plane position and the planar view posture of the article upper surface from the position in the basic image of the article existence region M and the inclination with respect to the basic image based on the detection information of the article search processing unit 37. It is. In the present embodiment, the plane position specifying unit 43 specifies the center position M1 of the article presence area M in the container 51 as the plane position of the article upper surface, and sets the rotation angle (tilt) of the article existence area M relative to the container 51 to the article. It is specified as a planar view posture of the upper surface. Specifically, the plane position specifying unit 43 sets the reference point at the corner of the container 51 on the downstream side in the transport direction WX of the container 51 and the article transport conveyor 11 in the width direction WY in the basic image as the origin O, and from the origin O to the container. 51, the X axis in the direction along the in-container transport direction X and the Y axis in the direction along the in-container width direction Y (that is, the in-container coordinate system is set), and the article presence region M from the storage unit 40. Get information about. Then, as shown in FIG. 11, the planar position specifying unit 43 calculates the in-container coordinates (X, Y) of the center position M1 of the article presence region M, and the in-container coordinates (X, Y) of the center position M1. ) Is specified as the planar position of the upper surface of the article. Further, the plane position specifying unit 43 uses a rectangular area corresponding to the article existence area M from a reference angle (0 °) where the rectangular area corresponding to the article existence area M is arranged to be similar to the rectangular area of the container 51. Calculates a rotation angle rotated around the center position M1 of the article presence area M, and specifies the rotation angle as a planar view posture. The origin O of the container 51 in the image coordinate system can be converted into coordinates in the reference coordinate system using a conversion coefficient determined from the installation position of the imaging device 8 and the relationship between the length and the actual distance in the reference image. Thereby, the plane position specifying unit 43 converts the in-container coordinates (X, Y) of the center position M1 in the in-container coordinate system into an image coordinate system, further converts into the reference coordinate system, and performs robot control as recognition result information. To the unit 24. Thus, the recognition result information includes the world coordinates (image coordinates) of the three-dimensional position of the center position M1.

チェック処理部45は、物品認識装置3(物品位置特定部41)で特定した物品上面の3次元位置及び平面視姿勢の値が不適切でないかをチェックする機能部である。チェック処理部45は、底面チェック部46と物品壁際チェック部47とを備える。チェック処理部45は、物品位置特定部41から容器内51における物品上面の3次元位置及び平面視姿勢の情報を取得すると、当該取得した物品上面の3次元位置及び平面視姿勢の値が不適切でないかをチェックし、正常である場合には物品位置特定部41に対して正常である旨の情報を出力し、正常でない場合には上位コントローラ2のリトライ制御部23へエラー出力を行う。   The check processing unit 45 is a functional unit that checks whether the value of the three-dimensional position and planar view posture of the article upper surface specified by the article recognition device 3 (article position specifying unit 41) is inappropriate. The check processing unit 45 includes a bottom surface check unit 46 and an article wall edge check unit 47. When the check processing unit 45 acquires the information about the three-dimensional position and the planar view posture of the article upper surface in the container 51 from the article position specifying unit 41, the acquired three-dimensional position and the planar view posture value of the article upper surface are inappropriate. If it is normal, information indicating that it is normal is output to the article position specifying unit 41, and if it is not normal, an error is output to the retry control unit 23 of the host controller 2.

底面チェック部46は、収納状態判別部42により算出された物品上面の容器底面からの位置が、実際には存在し得ないような位置ではないかをチェックする機能部である。例えば、底面チェック部46は、物品位置特定部41により特定された物品上面の高さ方向Zの位置が、床にのめり込んだ状態の容器の容器底面上に載置されている物品50の物品上面位置に相当しないか等をチェックする。具体的には、底面チェック部46は、物品位置特定部41から物品上面の3次元位置の情報を取得すると、収納状態判別部42により算出された物品上面の容器底面からの高さが、物品50の寸法情報に含まれる3辺の長さのうち最も短い辺の長さよりも小さいか否かを判定する。そして、底面チェック部46は、物品上面の容器底面からの高さが物品50の最も短い辺の長さよりも小さいと判定した場合には、物品50が容器底面にめり込んでいるという現実には有り得ない結果であるので物品上面の認識を失敗したとして、エラー出力を行う。本実施形態では、物品50の最も短い辺の長さはH1である為、底面チェック部46は、収納状態判別部42により算出された物品上面の容器底面からの高さがH1未満であるかを判定する。そして、底面チェック部46は、収納状態判別部42により算出された物品上面の容器底面からの高さがH1未満であると判定した場合には、上位コントローラ2のリトライ制御部23へエラー出力を行う。なお、底面チェック部46は、収納状態判別部42により算出された物品上面の容器底面からの高さがH1以上であると判定した場合には、正常である旨の情報を物品位置特定部41へ出力する。   The bottom surface check unit 46 is a functional unit that checks whether the position of the upper surface of the article from the container bottom surface calculated by the storage state determination unit 42 is a position that cannot actually exist. For example, the bottom surface check unit 46 has the article upper surface of the article 50 placed on the container bottom surface of the container in which the position in the height direction Z of the article upper surface specified by the article position specifying unit 41 is embedded in the floor. Check whether it corresponds to the position. Specifically, when the bottom surface check unit 46 acquires information on the three-dimensional position of the top surface of the article from the article position specifying unit 41, the height from the bottom surface of the container calculated by the storage state determination unit 42 is It is determined whether or not it is smaller than the length of the shortest side among the lengths of the three sides included in the 50 dimension information. When the bottom surface check unit 46 determines that the height of the upper surface of the article from the container bottom surface is smaller than the length of the shortest side of the article 50, the reality is that the article 50 is recessed into the container bottom surface. Since there is no result, it is determined that the recognition of the upper surface of the article has failed, and an error is output. In the present embodiment, since the length of the shortest side of the article 50 is H1, the bottom face check unit 46 determines whether the height of the article upper surface from the container bottom calculated by the storage state determination unit 42 is less than H1. Determine. When the bottom surface check unit 46 determines that the height of the upper surface of the article from the container bottom surface calculated by the storage state determination unit 42 is less than H1, an error output is output to the retry control unit 23 of the host controller 2. Do. Note that when the bottom surface check unit 46 determines that the height of the top surface of the article from the container bottom calculated by the storage state determination unit 42 is equal to or higher than H1, the information indicating that the article is normal is indicated by the article position specifying unit 41. Output to.

物品壁際チェック部47は、平面位置特定部43により特定された物品上面の平面位置及び平面視姿勢と、記憶部40に格納されている物品50の寸法情報とにより定まる基本画像における物品上面に対応する矩形領域が、実際には存在し得ないような位置に存在していないかをチェックする機能部である。例えば、物品壁際チェック部47は、物品50の上面に対応する矩形領域が容器51の側壁にめり込んだ状態となっていないか等をチェックする。具体的には、物品壁際チェック部47は、平面位置特定部43により特定された物品上面の平面位置及び平面視姿勢と、記憶部40に格納されている物品50の寸法情報とにより定まる基本画像における物品上面に対応する矩形領域が、基本画像における容器51の存在領域の内部に包含されるか否かを判別する。本実施形態では、図11に示すように、物品壁際チェック部47は、物品存在領域Mの中心位置M1と平面視姿勢(回転角度)と物品50の寸法情報とから物品上面の矩形領域を構成する4隅である50A,50B,50C,50Dの各地点の容器内座標(X,Y)を算出する。一方、物品壁際チェック部47は、記憶部40から容器51の寸法情報を取得し、容器51の存在領域に対応する矩形領域を構成する4隅である51A,51B,51C,51Dの容器内座標系における各地点(X,Y)座標を算出する。なお、当該容器51の一隅の地点(本例では51A)が原点Oである。そして、物品壁際チェック部47は、物品上面に対応する矩形領域の50A,50B,50C,50Dの4隅の地点の容器内座標(X,Y)が、容器51の51A,51B,51C,51Dの4隅の地点を結んで生成される矩形領域内に含まれていると判定する場合には、物品位置特定部41に正常である旨のチェック結果情報を出力する。一方、底面チェック部46は、物品上面に対応する矩形領域の4隅の地点の容器内座標(X,Y)のうち一つでも、容器51の4隅の地点を結んで生成される矩形領域の外部に位置していると判定した場合には、上位コントローラ2のリトライ制御部23へエラー出力を行う。   The article wall edge check unit 47 corresponds to the article upper surface in the basic image determined by the planar position and planar view posture of the article upper surface specified by the planar position specifying unit 43 and the dimension information of the article 50 stored in the storage unit 40. This is a functional unit that checks whether a rectangular area to be present does not exist at a position where it cannot actually exist. For example, the article wall edge check unit 47 checks whether or not the rectangular area corresponding to the upper surface of the article 50 is in a state of being recessed into the side wall of the container 51. Specifically, the article wall edge check unit 47 is a basic image determined by the planar position and planar view posture of the article upper surface specified by the planar position specifying unit 43 and the dimension information of the article 50 stored in the storage unit 40. It is determined whether or not the rectangular region corresponding to the upper surface of the article is included in the presence region of the container 51 in the basic image. In the present embodiment, as shown in FIG. 11, the article wall edge check unit 47 forms a rectangular area on the upper surface of the article from the center position M1 of the article presence area M, the planar view posture (rotation angle), and the dimension information of the article 50. The in-container coordinates (X, Y) at each of the four corners 50A, 50B, 50C, and 50D are calculated. On the other hand, the article wall check unit 47 acquires the dimension information of the container 51 from the storage unit 40, and the coordinates in the containers of 51A, 51B, 51C, 51D that are the four corners constituting the rectangular area corresponding to the existence area of the container 51 are obtained. Each point (X, Y) coordinate in the system is calculated. A point at one corner of the container 51 (51A in this example) is the origin O. Then, the article wall edge check unit 47 has the container coordinates (X, Y) at the four corner points of the rectangular areas 50A, 50B, 50C, 50D corresponding to the upper surface of the article 51A, 51B, 51C, 51D of the container 51. When it is determined that it is included in the rectangular area generated by connecting the four corner points, check result information indicating that the item is normal is output to the article position specifying unit 41. On the other hand, the bottom surface check unit 46 is a rectangular area generated by connecting the four corner points of the container 51 among the in-container coordinates (X, Y) of the four corner points of the rectangular area corresponding to the upper surface of the article. If it is determined that it is located outside, an error is output to the retry controller 23 of the host controller 2.

4.物品認識処理の処理手順
本実施形態に係る上位コントローラ2、物品認識装置3及びピッキングコンベア6、すなわち物品認識設備による物品認識処理の処理手順について、図12及び図13を参照して説明する。以下に説明する物品認識処理の手順は、上位コントローラ2、物品認識装置3及びピッキングコンベア6の各機能部を構成するハードウェア又はソフトウェア(プログラム)或いはその両方により実行される。上記の各機能部がプログラムにより構成される場合には、上位コントローラ2、物品認識装置3及びピッキングコンベア6のそれぞれが有する演算処理装置(図示せず)が、それぞれが有する各機能部を構成するプログラムを実行するコンピュータとして動作してもよいし、上位コントローラ2の演算処理装置が、物品認識設備の全ての機能部を構成するプログラムを実行するコンピュータとして動作してもよい。
4). Processing procedure of article recognition processing The processing procedure of the article recognition processing by the host controller 2, the article recognition device 3, and the picking conveyor 6, that is, the article recognition equipment according to the present embodiment will be described with reference to FIGS. The procedure of the article recognition process described below is executed by hardware or software (program) or both constituting the functional units of the host controller 2, the article recognition apparatus 3, and the picking conveyor 6. When each of the above functional units is configured by a program, arithmetic processing devices (not shown) included in each of the host controller 2, the article recognition device 3, and the picking conveyor 6 configure each functional unit included in each. It may operate as a computer that executes a program, or the arithmetic processing unit of the host controller 2 may operate as a computer that executes a program that constitutes all the functional units of the article recognition facility.

4−1.物品認識処理について
本実施形態に係る物品認識処理では、まず、情報取得部44が、上位コントローラ2からの物品探索指令と併せて出力される容器情報及び物品情報を取得する(ステップ#01)。そして、画像取得部31が、ステップ#01における当該物品探索指令に基づいて、撮像装置8から撮像画像を取得する(ステップ#02)。次に容器外形検出部32が、ステップ#02で取得した撮像画像から容器51の外形を検出する(ステップ#03)。ステップ#03で容器外形が検出できなかった場合には(ステップ#04:No)、容器外形検出部32は、上位コントローラ2に対してエラー報告を出力し、上位コントローラ2よりリセット指示を受ける(ステップ#20)。そして、それに応じてステップ#01及びステップ#02で取得し記憶部40に記憶したデータを消去する。一方、ステップ#04で容器外形を検出した場合には(ステップ#04:Yes)、物品探索範囲設定部34が物品探索範囲設定処理を実行する(ステップ#05)。
4-1. About the article recognition process In the article recognition process according to the present embodiment, first, the information acquisition unit 44 acquires the container information and the article information output together with the article search command from the host controller 2 (step # 01). And the image acquisition part 31 acquires a captured image from the imaging device 8 based on the said article search instruction | command in step # 01 (step # 02). Next, the container outer shape detection unit 32 detects the outer shape of the container 51 from the captured image acquired in step # 02 (step # 03). If the container outline cannot be detected in step # 03 (step # 04: No), the container outline detector 32 outputs an error report to the host controller 2 and receives a reset instruction from the host controller 2 ( Step # 20). Then, the data acquired in step # 01 and step # 02 and stored in the storage unit 40 is erased accordingly. On the other hand, when the container outer shape is detected in step # 04 (step # 04: Yes), the article search range setting unit 34 executes the article search range setting process (step # 05).

物品探索範囲設定処理は、図13に示すように、まず、物品探索範囲設定部34が、記憶部40から物品50の3辺の寸法情報を取得する(ステップ#51)。次に、仮想基準面設定部35が、基本画像から基準高さHを算出し、ステップ#51の寸法情報と当該基準高さHとを用いて仮想基準面Sを設定するとともに、仮想基準下面SSをさらに設定する(ステップ#52)。そして、単一高さ画像生成部36が、ステップ#51で取得した寸法情報と、ステップ#52で設定した仮想基準面S及び仮想基準下面SSとに基づいて、仮想基準面S上のベース上段物品の3つの仮定収納姿勢、及び、仮想基準下面SS上のベース段物品の3つの仮定収納姿勢の6つの仮定収納姿勢のそれぞれについての物品上面の容器底面からの論理高さを算出する。そして、単一高さ画像生成部36が、当該論理高さと同一の高さ情報を有する画素をそれぞれ抽出して、当該仮定収納姿勢における物品上面に対応する高さの単一高さ画像を生成する(ステップ#53)。単一高さ画像生成部36は、ステップ#53で生成した単一高さ画像のそれぞれについて2値化を行い(ステップ#54)、物品探索領域が存在するか否かを判別する(ステップ#55)。単一高さ画像生成部36が、物品探索領域が存在すると判別した場合は(ステップ#56:Yes)、有効な単一高さ画像であるとして、カラー画像に変換をし(ステップ#57)、物品探索範囲として設定し(ステップ#58)、記憶部40に記憶する(ステップ#59)。そして、単一高さ画像生成部36が、6つの全ての単一高さ画像について、物品探索領域の存在の有無を判別する処理が終了した場合には(ステップ#60:Yes)、物品探索範囲設定処理を終了する。単一高さ画像生成部36が、6つの全ての単一高さ画像について、物品探索領域の存在の有無を判別する処理が終了していない場合には(ステップ#60:No)、6つの全ての単一高さ画像について物品探索領域の存在の有無を判別する処理が終了するまで、ステップ#56に戻って、残りの他の単一高さ画像について当該判別処理を実行する。   In the article search range setting process, as shown in FIG. 13, first, the article search range setting unit 34 acquires the dimension information of the three sides of the article 50 from the storage unit 40 (step # 51). Next, the virtual reference plane setting unit 35 calculates the reference height H from the basic image, sets the virtual reference plane S using the dimension information in Step # 51 and the reference height H, and the virtual reference bottom surface. SS is further set (step # 52). Then, based on the dimension information acquired in step # 51 and the virtual reference surface S and the virtual reference lower surface SS set in step # 52, the single height image generation unit 36 performs a base upper step on the virtual reference surface S. The logical height from the bottom of the container on the upper surface of the article is calculated for each of the six assumed storage attitudes of the three assumed storage attitudes of the article and the three assumed storage attitudes of the base stage article on the virtual reference lower surface SS. Then, the single height image generation unit 36 extracts pixels each having the same height information as the logical height, and generates a single height image corresponding to the upper surface of the article in the assumed storage posture. (Step # 53). The single height image generator 36 binarizes each single height image generated in step # 53 (step # 54), and determines whether or not an article search area exists (step #). 55). If the single height image generation unit 36 determines that the article search area exists (step # 56: Yes), the single height image generation unit 36 converts the color image into a color image as a valid single height image (step # 57). The article search range is set (step # 58) and stored in the storage unit 40 (step # 59). Then, when the process of determining whether or not the article search area exists for all six single height images is completed (step # 60: Yes), the single height image generation unit 36 searches for articles. The range setting process ends. When the single height image generation unit 36 has not completed the process of determining the presence or absence of the article search region for all six single height images (step # 60: No), Until the process of determining the presence / absence of the article search region for all the single height images is completed, the process returns to step # 56, and the determination process is executed for the remaining other single height images.

一方、ステップ#56において、単一高さ画像生成部36が、物品探索領域が存在しないと判別した場合で(ステップ#56:No)、他の全ての単一高さ画像についても物品探索領域がないと判別した場合、すなわち、全ての単一高さ画像に物品探索領域がないと判別した場合には(ステップ#61:Yes)、有効な単一高さ画像がないとして(ステップ#62,図12のステップ#06:Yes)物品探索範囲設定処理を終了し、図12に戻って、リトライ制御部23がピッキングコンベア6にリトライ指示を出力する(ステップ#17)。ステップ#61にて、単一高さ画像生成部36が、6つの単一高さ画像の全てに物品探索領域がないと判別しない場合(ステップ#61:No)、例えば、既に物品探索領域があると判別した単一高さ画像がある場合等には、6つの全ての単一高さ画像についての当該判別処理が終了するまで、ステップ#56に戻って同様の処理を繰り返す(ステップ#60:No)。ステップ#61にて、単一高さ画像生成部36が、6つの単一高さ画像の全てに物品探索領域がないと判別しない場合で(ステップ#61:No)、6つの全ての単一高さ画像についての当該判別処理が終了した場合には(ステップ#60:Yes)、物品探索範囲設定処理を終了する。   On the other hand, when the single height image generating unit 36 determines in step # 56 that the article search area does not exist (step # 56: No), the article search area is also used for all other single height images. If it is determined that there is no item search area, that is, if it is determined that there is no article search area in all single height images (step # 61: Yes), it is determined that there is no valid single height image (step # 62). , Step # 06 in FIG. 12: Yes) The article search range setting process is terminated, and the process returns to FIG. 12, and the retry control unit 23 outputs a retry instruction to the picking conveyor 6 (Step # 17). In step # 61, if the single height image generation unit 36 does not determine that there are no article search regions in all six single height images (step # 61: No), for example, the article search region has already been obtained. If there is a single height image determined to be present, the process returns to step # 56 until the determination processing for all six single height images is completed (step # 60). : No). In step # 61, when the single height image generation unit 36 does not determine that there are no article search regions in all of the six single height images (step # 61: No), all the six single height images are generated. When the discrimination process for the height image is completed (step # 60: Yes), the article search range setting process is terminated.

図12の処理に戻って、ステップ#06において、単一高さ画像生成部36が、有効な単一高さ画像があると判別した場合には(ステップ#06:No)、パターンマッチング処理部38は、物品探索範囲に設定された有効な単一高さ画像のうち、一番高さの高い単一高さ画像に対してパターンマッチング処理を実行する(ステップ#07)。パターンマッチング処理において物品存在領域Mが検出されると(ステップ#08:Yes)、物品位置特定部41が、当該物品存在領域Mに基づき、物品上面の3次元位置及び平面視姿勢を特定する(ステップ#11)。一方、パターンマッチング処理において物品存在領域Mが検出されない場合には(ステップ#08:No)、エッジ検出処理部39がステップ#07で用いた有効な単一高さ画像に対してエッジ検出処理を実行する(ステップ#09)。エッジ検出処理において物品存在領域Mが検出されると(ステップ#09:Yes)、物品位置特定部41が、当該物品存在領域Mに基づき、物品上面の3次元位置及び平面視姿勢を特定する(ステップ#11)。   Returning to the processing of FIG. 12, when the single height image generation unit 36 determines in step # 06 that there is a valid single height image (step # 06: No), the pattern matching processing unit No. 38 performs pattern matching processing on the single height image having the highest height among the effective single height images set in the article search range (step # 07). When the article presence area M is detected in the pattern matching process (step # 08: Yes), the article position specifying unit 41 specifies the three-dimensional position and planar view posture of the article upper surface based on the article existence area M ( Step # 11). On the other hand, when the article presence region M is not detected in the pattern matching process (step # 08: No), the edge detection processing unit 39 performs the edge detection process on the effective single height image used in step # 07. Execute (Step # 09). When the article presence area M is detected in the edge detection process (step # 09: Yes), the article position specifying unit 41 specifies the three-dimensional position and planar view posture of the article upper surface based on the article existence area M ( Step # 11).

一方、エッジ検出処理において物品存在領域Mが検出されない場合で(ステップ#10:No)、ステップ#06で判別した有効な単一高さ画像が他にあれば(ステップ#16:Yes)、ステップ#07に戻り、パターンマッチング処理部38が、他の有効な単一高さ画像に対してパターンマッチング処理を実行する。なお、本実施形態では、パターンマッチング処理部38は、高さの高い単一高さ画像順に当該パターンマッチング処理を実行する。また、エッジ検出処理において物品存在領域Mが検出されない場合で(ステップ#10:No)、ステップ#06で判別した有効な単一高さ画像が他になければ(ステップ#16:No)、エッジ検出処理部39は、その旨の情報を上位コントローラ2へ出力し、リトライ制御部23がピッキングコンベア6にリトライ指示を出力する(ステップ#17)。そして、リトライ制御部23は、リトライ指示の出力回数が3回未満であれば(ステップ#18:No)、ピッキングコンベア6にリトライ処理を実行させる(ステップ#19)。リトライ制御部23は、リトライ指示の出力回数が3回以上であれば(ステップ#18:Yes)、リセット指示をして(ステップ#20)、物品認識処理を終了する。また、物品位置特定部41が、当該物品存在領域Mに基づき、物品上面の3次元位置及び平面視姿勢を特定すると(ステップ#11)、チェック処理部45にて各種チェックが実行される(ステップ#12)。そして、チェック処理部45にて各種チェックの結果が正常である場合には(ステップ#13:Yes)、物品位置特定部41が、物品上面の3次元位置及び平面視姿勢を確定し(ステップ#14)、当該物品上面の3次元位置及び平面視姿勢の情報を上位コントローラ2へ出力して(ステップ#15)、当該物品認識処理を終了する。なお、チェック処理部45にて各種チェックの結果が正常でない場合には(ステップ#13:No)、チェック処理部45は、上位コントローラ2へその旨の情報を出力し、リトライ制御部23がピッキングコンベア6にリトライ指示を出力する(ステップ#17)。   On the other hand, if the article presence region M is not detected in the edge detection process (step # 10: No), and there is another effective single height image determined in step # 06 (step # 16: Yes), step Returning to # 07, the pattern matching processing unit 38 performs pattern matching processing on another valid single height image. In the present embodiment, the pattern matching processing unit 38 executes the pattern matching processing in the order of the single height image having the highest height. Further, when the article presence region M is not detected in the edge detection process (step # 10: No), and there is no other valid single height image determined in step # 06 (step # 16: No), the edge The detection processing unit 39 outputs information to that effect to the host controller 2, and the retry control unit 23 outputs a retry instruction to the picking conveyor 6 (step # 17). If the retry instruction output number is less than 3 (step # 18: No), the retry control unit 23 causes the picking conveyor 6 to execute a retry process (step # 19). If the number of times that the retry instruction is output is 3 times or more (step # 18: Yes), the retry control unit 23 issues a reset instruction (step # 20) and ends the article recognition process. When the article position specifying unit 41 specifies the three-dimensional position and the planar view posture of the article upper surface based on the article existence area M (step # 11), various checks are executed by the check processing unit 45 (step # 11). # 12). If the results of various checks in the check processing unit 45 are normal (step # 13: Yes), the article position specifying unit 41 determines the three-dimensional position and planar view posture of the article upper surface (step # 13). 14) The information on the three-dimensional position and the planar view posture of the article upper surface is output to the host controller 2 (step # 15), and the article recognition process is terminated. If the results of various checks in the check processing unit 45 are not normal (step # 13: No), the check processing unit 45 outputs information to that effect to the host controller 2, and the retry control unit 23 picks up. A retry instruction is output to the conveyor 6 (step # 17).

5.その他の実施形態
最後に、本発明に係る物品搬送設備100のその他の実施形態について説明する。なお、以下のそれぞれの実施形態で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することも可能である。
5. Other Embodiments Finally, other embodiments of the article conveyance facility 100 according to the present invention will be described. Note that the configurations disclosed in the following embodiments can be applied in combination with the configurations disclosed in other embodiments as long as no contradiction arises.

(1)上記の実施形態では、ステレオカメラ等の一対のカメラ8A及び8Bを有する撮像装置8を用いて、カメラ8Aで撮像した画像における各画素においての当該カメラ8Aからの距離情報を、一対のカメラ8A及び8Bの視差に基づいて算出して、各画素が当該カメラ8Aからの距離情報を有する撮像画像を生成する構成であった。しかし、本発明の実施形態はこれに限定されるものではなく、撮像装置8として、撮像画像と距離情報とを併せて取得できる距離画像センサを用いる構成であってもよい。 (1) In the above embodiment, using the imaging device 8 having a pair of cameras 8A and 8B such as a stereo camera, the distance information from the camera 8A in each pixel in the image captured by the camera 8A The configuration is such that each pixel generates a captured image having distance information from the camera 8A, calculated based on the parallax of the cameras 8A and 8B. However, the embodiment of the present invention is not limited to this, and a configuration using a distance image sensor that can acquire a captured image and distance information together as the imaging device 8 may be used.

(2)上記の実施形態では、リトライ制御部23が上位コントローラ2に設けられる構成であるが、物品認識装置3に設けられる構成であってもよい。その際には、リトライ制御部23は、ピッキングコンベア6を直接的に制御する構成であってもよいし、上位コントローラ2を介して間接的に制御する構成であってもよい。 (2) In the above embodiment, the retry control unit 23 is provided in the host controller 2, but may be provided in the article recognition device 3. In that case, the retry control unit 23 may be configured to directly control the picking conveyor 6 or may be configured to indirectly control the picking conveyor 6 via the host controller 2.

(3)上記の実施形態において、さらに、物品認識装置3が、認識対象である物品50が、容器51内に収容されている最後の一つであるか否かを判別するラスト物品判別部を備える構成であってもよい。なお、その際には、上位コントローラ2が、容器51内に収容されている最後の一つの物品50を取り出した後にピッキング箇所12に存在する容器51を他の容器51に入れ替えるようにピッキングコンベア6の動作を制御する容器入替制御部(図示せず)を備える構成であることが好ましい。ラスト物品判別部が、認識対象である物品50が容器51内に収容されている最後の一つであると判定すると、最後の一つである旨の情報を上位コントローラ2に出力する。容器入替制御部は、当該最後の一つである旨の情報を受けると、物品認識装置3から取得する最後の物品50の認識情報結果に基づく、ピッキングロボット5による最後の物品50のピッキング処理が終了すると、ピッキングコンベア6の搬送面Pを搬送方向WXの上流側から下流側へ動作させる。これにより、空となった容器51は入庫コンベア10側に搬送され、物品50が収容されている新たな容器51がピッキング箇所12に搬送される。なお、ラスト物品判別部では、例えば、マスター容器情報から容器情報取得部22を介して取得した各容器51内に含まれる物品50の在庫数と、物品認識装置3から認識結果情報を上位コントローラ2へ出力した回数(ピッキングロボットにて取り出した物品50の個数に相当)とを比較すること等により、最後の一つを判別することができる。 (3) In the above-described embodiment, the article recognition apparatus 3 further includes a last article determination unit that determines whether or not the recognition target article 50 is the last one stored in the container 51. The structure provided may be sufficient. In this case, the picking conveyor 6 is arranged so that the host controller 2 replaces the container 51 existing at the picking location 12 with another container 51 after taking out the last one article 50 accommodated in the container 51. It is preferable to have a configuration including a container replacement control unit (not shown) for controlling the operation. If the last article determination unit determines that the article 50 to be recognized is the last one contained in the container 51, it outputs information indicating that it is the last one to the host controller 2. When the container replacement control unit receives the information indicating that it is the last one, the picking process of the last article 50 by the picking robot 5 based on the recognition information result of the last article 50 acquired from the article recognition apparatus 3 is performed. When finished, the transport surface P of the picking conveyor 6 is moved from the upstream side to the downstream side in the transport direction WX. Thereby, the empty container 51 is conveyed to the warehousing conveyor 10 side, and the new container 51 in which the article 50 is accommodated is conveyed to the picking location 12. In the last article determination unit, for example, the host controller 2 obtains the inventory quantity of the articles 50 included in each container 51 acquired from the master container information via the container information acquisition unit 22 and the recognition result information from the article recognition device 3. The last one can be determined by comparing the number of times output to (equivalent to the number of articles 50 taken out by the picking robot).

(4)上記の実施形態では、上位コントローラ2は、センサ等によって、ピッキング箇所12における容器51の存在を検出すると自動的に物品探索指令を物品認識装置3に出力する構成であるが、本発明の実施形態はこれに限定されるものではない。上位コントローラ2は、作業者が物品探索処理開始ボタンを押す等の手動による物品探索の操作入力を検知した際に、物品探索指令を物品認識装置3に出力する構成であってもよい。 (4) In the above embodiment, the host controller 2 is configured to automatically output an article search command to the article recognition device 3 when the presence of the container 51 at the picking location 12 is detected by a sensor or the like. However, the embodiment is not limited to this. The host controller 2 may be configured to output an article search command to the article recognition device 3 when an operator inputs a manual article search operation input such as pressing an article search processing start button.

(5)上記の実施形態では、仮想基準面設定部35は、基本画像内において同一の高さ情報を有する画素が最も多く含まれる高さを基準高さHとし、当該基準高さHの高さ情報を有する画素群により形成される平面を仮想基準面Sとして設定する構成であった。しかし、本発明の実施形態はこれに限定されるものではなく、基準高さHを予め与える構成であってもよい。 (5) In the above-described embodiment, the virtual reference plane setting unit 35 sets the height at which the most pixels having the same height information are included in the basic image as the reference height H, and the height of the reference height H The plane formed by the pixel group having the depth information is set as the virtual reference plane S. However, the embodiment of the present invention is not limited to this, and may have a configuration in which the reference height H is given in advance.

(6)上記の実施形態では、仮想基準面設定部35は、仮想基準面Sの基準高さHとして、ヒストグラムを谷で分割した際に最も面積が大きい山を判別し、当該山の中で一番出現率が大きい画素値が有する高さ、すなわち、同一の高さ情報を有する画素が最も多く含まれる高さを基準高さHとしている。しかし、本発明の実施形態はこれに限定されるものではない。例えば、ヒストグラムを谷で分割した際の最も面積が大きい山を構成する画素数及び画素値(各画素が有する高さ)から画素値(高さ)の平均値を算出し、当該平均値を基準高さHとする構成であってもよい。 (6) In the above embodiment, the virtual reference plane setting unit 35 determines the peak having the largest area when the histogram is divided by valleys as the reference height H of the virtual reference plane S, The height of the pixel value having the highest appearance rate, that is, the height including the most pixels having the same height information is set as the reference height H. However, the embodiment of the present invention is not limited to this. For example, the average value of pixel values (height) is calculated from the number of pixels and pixel values (height of each pixel) that make up the mountain with the largest area when the histogram is divided by valleys, and the average value is used as a reference It may be configured to have a height H.

(7)上記の実施形態では、物品探索範囲設定部34を備え、単一高さ画像を生成して、当該生成した単一高さ画像のうち有効な単一高さ画像を物品探索範囲とし、物品探索処理部37では当該物品探索範囲に対して物品探索処理を実行する構成であった。そして、収納状態判別部42は、物品存在領域Mが検出された単一高さ画像に対応づけられている仮定収納姿勢を収納姿勢と判別する構成であった。しかし、本発明の実施形態はこれに限定されるものではない。例えば、物品認識装置3が、物品探索範囲設定部34を備えない構成とすることにより、物品探索処理部37が、物品探索範囲として有効な単一高さ画像に絞らずに、基本画像全体に対して物品探索処理を実行する構成であってもよい。その場合、物品探索処理部37により物品存在領域Mが検出されると、収納状態判別部42は、物品上面に対応する当該物品存在領域Mの矩形領域と物品50の寸法情報とから、物品50がいずれの面を上面としているかを認識するとともに、収納姿勢を判別する。収納状態判別部42は、さらに、収納姿勢を判別後に、物品50の寸法情報により、当該物品50の底面が属している基準面に対する物品上面の高さを算出する。 (7) In the above embodiment, the article search range setting unit 34 is provided, a single height image is generated, and an effective single height image among the generated single height images is set as the article search range. The article search processing unit 37 is configured to execute the article search process for the article search range. The storage state determination unit 42 is configured to determine the assumed storage posture associated with the single height image in which the article presence area M is detected as the storage posture. However, the embodiment of the present invention is not limited to this. For example, when the article recognition apparatus 3 is configured not to include the article search range setting unit 34, the article search processing unit 37 does not narrow down to a single height image that is effective as the article search range, but the entire basic image. The structure which performs an article search process with respect to it may be sufficient. In this case, when the article presence area M is detected by the article search processing unit 37, the storage state determination unit 42 determines the article 50 from the rectangular area of the article existence area M corresponding to the upper surface of the article and the dimension information of the article 50. Recognizes which surface is the upper surface, and determines the storage posture. The storage state determination unit 42 further calculates the height of the article upper surface with respect to the reference plane to which the bottom surface of the article 50 belongs, based on the dimension information of the article 50 after determining the storage posture.

2:上位コントローラ(物品認識装置)
3:物品認識装置(物品認識装置)
6:ピッキングコンベア(移動部)(物品認識設備)
37:物品探索処理部
42:収納状態判別部
43:平面位置特定部
44:情報取得部
35:仮想基準面設定部
36:単一高さ画像生成部
46:底面チェック部
47:物品壁際チェック部
50:物品
51:容器
M:物品存在領域
P1,P2:テンプレート画像
S:仮想基準面
SS:仮想基準下面
T1:単一高さ画像
2: Host controller (article recognition device)
3: Article recognition device (article recognition device)
6: Picking conveyor (moving part) (article recognition equipment)
37: Article search processing unit 42: Storage state determination unit 43: Plane position specifying unit 44: Information acquisition unit 35: Virtual reference plane setting unit 36: Single height image generation unit 46: Bottom surface check unit 47: Article wall edge check unit 50: Article 51: Container M: Article existence area P1, P2: Template image S: Virtual reference plane SS: Virtual reference bottom surface T1: Single height image

Claims (9)

上面が開放された容器に収容された直方体形状の物品を認識対象とし、前記物品を収容した前記容器の上方からの撮像画像である基本画像から、物品上面の位置及び当該物品上面の平面視姿勢を認識する物品認識装置であって、
前記物品の6個の矩形面のうちの一部の矩形面の画像に対応するテンプレート画像及び前記物品の1つの頂点から延びる3辺についての寸法情報を予め取得する情報取得部と、
パターンマッチング処理とエッジ検出処理とを実行する物品探索処理部と、
前記物品探索処理部の検出情報と、前記寸法情報とから、前記物品が前記矩形面のいずれの面を上面として収納されているかの収納姿勢を判別するとともに、前記物品の底面が属している基準面に対する前記物品上面の高さを算出する収納状態判別部と、
前記物品探索処理部の検出情報に基づいて、前記物品存在領域の前記基本画像内における位置及び前記基本画像に対する傾きから、前記物品上面の平面位置及び平面視姿勢を特定する平面位置特定部と、を備え、
前記パターンマッチング処理は、前記基本画像内に含まれる、前記テンプレート画像との一致度が予め定められた閾値以上である領域を物品存在領域として検出し、
前記エッジ検出処理は、前記基本画像内のエッジ成分を抽出して生成したエッジ画像を生成し、前記各矩形面の外形に基づいて生成した矩形モデルとの関係が予め定められた条件に合致する領域を、前記物品存在領域として検出し、
前記物品探索処理部は、物品探索指令が指令されると前記パターンマッチング処理を実行し、当該パターンマッチング処理において前記物品存在領域を検出できない場合に前記エッジ検出処理を実行する物品認識装置。
An object having a rectangular parallelepiped shape housed in a container having an open top surface is a recognition target, and a position of the top surface of the article and a planar view posture of the top surface of the article from a basic image that is a captured image from above the container housing the article. An article recognition device for recognizing
An information acquisition unit that acquires in advance dimensional information about a template image corresponding to an image of some of the six rectangular surfaces of the article and three sides extending from one vertex of the article;
An article search processing unit that performs pattern matching processing and edge detection processing;
From the detection information of the article search processing unit and the dimension information, it is possible to determine a storage posture of which of the rectangular surfaces the upper surface of the article is stored, and a reference to which the bottom surface of the article belongs A storage state determination unit that calculates a height of the upper surface of the article with respect to a surface;
Based on the detection information of the article search processing unit, a plane position specifying unit that specifies a plane position and a planar view posture of the article upper surface from a position in the basic image of the article existence region and an inclination with respect to the basic image; With
The pattern matching process detects, as an article presence area, an area that is included in the basic image and has a degree of matching with the template image that is equal to or greater than a predetermined threshold value.
The edge detection process generates an edge image generated by extracting an edge component in the basic image, and a relationship with a rectangular model generated based on the outer shape of each rectangular surface matches a predetermined condition. Detecting an area as the article presence area,
The article recognition processing unit executes the pattern matching process when an article search command is issued, and executes the edge detection process when the article presence area cannot be detected in the pattern matching process.
前記容器内における前記物品の前記収納姿勢が予め定められ、
前記テンプレート画像は、当該予め定められている前記収納姿勢において上面となる前記矩形面の模様に対応する画像である請求項1に記載の物品認識装置。
The storage posture of the article in the container is predetermined,
The article recognition apparatus according to claim 1, wherein the template image is an image corresponding to a pattern of the rectangular surface that is an upper surface in the predetermined storage posture.
前記基本画像における各画素について、当該各画素に対応する位置での物品上面の容器底面からの高さを示す高さ情報を取得して、同一の高さ情報を有する画素が最も多く含まれる高さである画素群により形成される平面を仮想基準面とする仮想基準面設定部と、
前記仮想基準面に底面が属する物品であるベース上段物品が存在すると仮定した場合に、前記収納姿勢として仮定される3つの異なる仮定収納姿勢のそれぞれについて、当該仮定収納姿勢において上面となる面の前記容器底面からの高さと同一の高さ情報を有する画素を前記基本画像から抽出して単一高さ画像を生成する単一高さ画像生成部と、をさらに備え、
前記物品探索処理部は、前記パターンマッチング処理においては、前記単一高さ画像内に含まれる、前記テンプレート画像との一致度が予め定められた閾値以上である領域を前記物品存在領域として検出し、前記エッジ検出処理においては、前記単一高さ画像内に含まれるエッジ成分を抽出して生成したエッジ画像を生成し、前記矩形モデルとの関係が予め定められた条件に合致する領域を前記物品存在領域として検出し、
前記収納状態判別部は、前記単一高さ画像のうち、前記物品探索処理部にて前記物品存在領域が検出された単一高さ画像に対応する前記仮定収納姿勢を前記収納姿勢として判別するとともに、前記仮想基準面を前記基準面と判別する請求項1又は2に記載の物品認識装置。
For each pixel in the basic image, the height information indicating the height from the container bottom surface of the upper surface of the article at a position corresponding to each pixel is acquired, and the height including the most pixels having the same height information is included. A virtual reference plane setting unit that uses a plane formed by the pixel group that is the virtual reference plane;
When it is assumed that there is a base upper article that is an article to which the bottom belongs to the virtual reference plane, for each of three different assumed storage postures assumed as the storage posture, the surface of the upper surface in the assumed storage posture A single height image generating unit that generates a single height image by extracting pixels having the same height information as the height from the bottom of the container from the basic image, and
In the pattern matching process, the article search processing unit detects, as the article presence area, an area included in the single height image and having a degree of coincidence with the template image equal to or greater than a predetermined threshold. In the edge detection process, an edge image generated by extracting an edge component included in the single height image is generated, and a region whose relationship with the rectangular model matches a predetermined condition is generated. Detect as an article presence area,
The storage state determination unit determines, as the storage posture, the assumed storage posture corresponding to the single height image in which the article presence area is detected by the article search processing unit in the single height image. The article recognition apparatus according to claim 1, wherein the virtual reference plane is determined as the reference plane.
前記容器には、物品上面が同一の高さに属するように配置された同一形状の複数の物品により形成される物品層が高さ方向に積層される状態で収容され、
前記仮想基準面設定部は、物品上面が前記仮想基準面に属する物品であるベース段物品の底面が属する面を仮想基準下面としてさらに設定し、
前記単一高さ画像生成部は、前記仮想基準下面上での前記ベース段物品の前記収納姿勢として仮定される3つの新たな仮定収納姿勢のそれぞれについて、当該新たな仮定収納姿勢において上面となる面の前記容器底面からの高さと同一の高さ情報を有する画素を前記基本画像から抽出して3つの新たな単一高さ画像を生成し、
前記収納状態判別部は、前記3つの新たな単一高さ画像のいずれかに、前記物品探索処理部にて前記物品存在領域が検出された場合には、当該物品存在領域が検出された単一高さ画像に対応する前記仮定収納姿勢を前記収納姿勢として判別するとともに、前記仮想基準下面を前記基準面と判別する請求項3に記載の物品認識装置。
In the container, an article layer formed by a plurality of articles having the same shape arranged so that the article upper surface belongs to the same height is accommodated in a state of being stacked in the height direction,
The virtual reference plane setting unit further sets, as a virtual reference lower surface, a surface to which a bottom surface of a base stage article that is an article whose article upper surface belongs to the virtual reference plane,
The single height image generation unit is an upper surface in each of the three new assumed storage postures assumed as the storage posture of the base stage article on the virtual reference lower surface in the new assumed storage posture. Extracting from the basic image pixels having height information equal to the height of the surface from the bottom of the container to generate three new single height images;
When the article search processing unit detects the article presence region in any of the three new single height images, the storage state determination unit detects the article presence region. The article recognition apparatus according to claim 3, wherein the hypothetical storage posture corresponding to the one-height image is determined as the storage posture, and the virtual reference lower surface is determined as the reference surface.
前記物品探索処理部は、前記単一高さ画像生成部により生成された前記仮定収納姿勢に応じた単一高さ画像のうち、高さの大きい単一高さ画像から順に、前記パターンマッチング処理及び前記エッジ検出処理を実行する請求項3又は4に記載の物品認識装置。   The article search processing unit is configured to perform the pattern matching process in order from a single height image having a higher height among single height images corresponding to the assumed storage posture generated by the single height image generation unit. The article recognition apparatus according to claim 3 or 4, wherein the edge detection process is executed. 前記収納状態判別部は、前記仮想基準面若しくは前記仮想基準下面の容器底面からの高さと、前記基準面に対する物品上面の高さとから、物品上面の容器底面からの高さを算出し、
前記収納状態判別部により算出された前記物品上面の容器底面からの高さが、前記寸法情報に含まれる前記3辺の長さのうち最も短い辺の長さよりも小さいか否かを判定する底面チェック部をさらに備え、
前記底面チェック部が、前記物品上面の高さが前記物品の最も短い辺の長さよりも小さいと判定した場合には、エラー出力を行う請求項3から5のいずれか一項に記載の物品認識装置。
The storage state determination unit calculates the height from the container bottom surface of the article upper surface from the height from the container bottom surface of the virtual reference plane or the virtual reference lower surface, and the height of the article upper surface with respect to the reference plane,
A bottom surface for determining whether the height from the container bottom surface of the article upper surface calculated by the storage state determination unit is smaller than the shortest side length among the three side lengths included in the dimension information. A check section,
The article recognition according to any one of claims 3 to 5, wherein when the bottom face check unit determines that the height of the article top face is smaller than the length of the shortest side of the article, an error output is performed. apparatus.
前記収納状態判別部は、前記寸法情報に基づいて、前記物品の3辺の中に、当該各辺の長さの差が予め定められた判別限界値よりも小さい一対の類似辺を含むと判別した場合であって、前記一対の類似辺のうちの短い方の辺を高さ方向に沿わせた姿勢を前記収納姿勢として判別したときには、当該判別の結果である前記収納姿勢を、前記一対の類似辺のうちの長い方の辺を高さ方向に沿わせた姿勢に更新する請求項1から6のいずれか一項に記載の物品認識装置。   The storage state determination unit determines, based on the dimension information, that the three sides of the article include a pair of similar sides in which a difference in length between the sides is smaller than a predetermined determination limit value. In this case, when the posture in which the shorter side of the pair of similar sides is along the height direction is determined as the storage posture, the storage posture as a result of the determination is determined as the storage posture. The article recognition apparatus according to any one of claims 1 to 6, wherein a longer one of the similar sides is updated to a posture along the height direction. 前記平面位置特定部により特定された前記物品上面の平面位置及び平面視姿勢と、前記寸法情報とにより定まる前記基本画像における前記物品上面に対応する矩形領域が、前記基本画像における前記容器の存在領域の内部に包含されるか否かを判別する物品壁際チェック部をさらに備え、
前記物品壁際チェック部が、前記矩形領域が前記容器の存在領域の内部に包含されないと判別した場合には、エラー出力を行う請求項1〜7のいずれか一項に記載の物品認識装置。
A rectangular region corresponding to the upper surface of the article in the basic image determined by the planar position and planar view posture of the upper surface of the article specified by the planar position specifying unit and the dimensional information is an existence area of the container in the basic image. Further comprising an article wall edge check unit for determining whether or not it is included in the interior of
The article recognition apparatus according to any one of claims 1 to 7, wherein when the article wall check unit determines that the rectangular area is not included in the container existing area, an error output is performed.
請求項1〜8のいずれか一項に記載の物品認識装置と、
前記容器を水平方向に移動させる移動部と、
前記物品探索処理部において、前記物品存在領域を検出できなかった場合に、前記容器を、前記基本画像の撮像位置から予め設定した量だけ水平移動させるように前記移動部を制御するリトライ制御部と、を備える物品認識設備。
The article recognition apparatus according to any one of claims 1 to 8,
A moving unit for moving the container in a horizontal direction;
A retry control unit that controls the moving unit to horizontally move the container by a preset amount from the imaging position of the basic image when the article presence processing unit cannot detect the article presence region; An article recognition facility comprising:
JP2013174936A 2013-08-26 2013-08-26 Article recognition apparatus and article recognition equipment Active JP6052103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013174936A JP6052103B2 (en) 2013-08-26 2013-08-26 Article recognition apparatus and article recognition equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013174936A JP6052103B2 (en) 2013-08-26 2013-08-26 Article recognition apparatus and article recognition equipment

Publications (2)

Publication Number Publication Date
JP2015043175A JP2015043175A (en) 2015-03-05
JP6052103B2 true JP6052103B2 (en) 2016-12-27

Family

ID=52696671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013174936A Active JP6052103B2 (en) 2013-08-26 2013-08-26 Article recognition apparatus and article recognition equipment

Country Status (1)

Country Link
JP (1) JP6052103B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105893940B (en) * 2016-03-29 2019-06-21 南京大学 The implementation method of system is fixed in container hoisting anticollision based on edge detection
JP6504200B2 (en) * 2017-05-24 2019-04-24 株式会社椿本チエイン Cultivation system and computer program
JP7062418B2 (en) * 2017-11-29 2022-05-16 株式会社東芝 Information processing equipment and sorting system
JP6806045B2 (en) * 2017-12-11 2021-01-06 株式会社ダイフク Goods transport equipment
JP6795007B2 (en) 2018-04-27 2020-12-02 株式会社ダイフク Picking equipment
TWI702179B (en) 2019-12-05 2020-08-21 所羅門股份有限公司 Fetching system and method
JP7434986B2 (en) 2020-02-12 2024-02-21 株式会社ダイフク Article identification system
US11403764B2 (en) 2020-02-14 2022-08-02 Mujin, Inc. Method and computing system for processing candidate edges
CN112734783B (en) * 2020-02-14 2022-02-25 牧今科技 Method and computing system for processing candidate edges

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5360369B2 (en) * 2008-09-11 2013-12-04 株式会社Ihi Picking apparatus and method
JP5938201B2 (en) * 2011-12-06 2016-06-22 キヤノン株式会社 Position / orientation measuring apparatus, processing method thereof, and program

Also Published As

Publication number Publication date
JP2015043175A (en) 2015-03-05

Similar Documents

Publication Publication Date Title
JP6052103B2 (en) Article recognition apparatus and article recognition equipment
JP6011490B2 (en) Goods storage facility
JP6805465B2 (en) Box positioning, separation, and picking using sensor-guided robots
US9707682B1 (en) Methods and systems for recognizing machine-readable information on three-dimensional objects
US20200078935A1 (en) Robot system and control method thereof
JP6605711B2 (en) Measuring system and measuring method
JP6211734B1 (en) Combination of stereo processing and structured light processing
CN106573381B (en) The visualization of truck unloader
JP5429614B2 (en) Box-shaped workpiece recognition apparatus and method
JP6795007B2 (en) Picking equipment
WO2017163714A1 (en) Projection instruction device, parcel sorting system, and projection instruction method
US20200175466A1 (en) Inventory Verification Device
CN112534476B (en) Object recognition device, manipulator, and mobile robot
JP2017088345A (en) Inspection processing device, inspection system, inspection processing method and program
CN114286739B (en) Information processing device, setting method, image recognition system, robot system, learning device, and method for generating learned model
JP5360369B2 (en) Picking apparatus and method
CN215477503U (en) Sorting device and warehousing system
JP6167760B2 (en) Article position recognition device
CN115676194A (en) Cargo processing method and device, robot, sorting device and warehousing system
JP7261597B2 (en) Work storage system to be transferred
CN111890369A (en) Robot control method, device and system, control equipment and robot
JP2020114778A (en) Projection instruction device, goods assort system and projection instruction method
JP6486784B2 (en) Distribution support device, distribution support system, and distribution support program
US20240158174A1 (en) Logistics autonomous vehicle with robust object detection, localization and monitoring
WO2017163713A1 (en) Projection instruction device, parcel sorting system, and projection instruction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6052103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250