JP2023069743A - Article recognition device and article recognition method - Google Patents

Article recognition device and article recognition method Download PDF

Info

Publication number
JP2023069743A
JP2023069743A JP2021181847A JP2021181847A JP2023069743A JP 2023069743 A JP2023069743 A JP 2023069743A JP 2021181847 A JP2021181847 A JP 2021181847A JP 2021181847 A JP2021181847 A JP 2021181847A JP 2023069743 A JP2023069743 A JP 2023069743A
Authority
JP
Japan
Prior art keywords
article
area
information
region
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021181847A
Other languages
Japanese (ja)
Inventor
大佑 萩原
Daisuke Hagiwara
宣隆 木村
Nobutaka Kimura
泰樹 矢野
Taiki Yano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021181847A priority Critical patent/JP2023069743A/en
Publication of JP2023069743A publication Critical patent/JP2023069743A/en
Pending legal-status Critical Current

Links

Images

Abstract

To properly recognize each of a plurality of articles arranged in a close-contact manner without preparing information on a pattern and size of a recognition object article in advance.SOLUTION: An article recognition device 10 according to an embodiment of the present invention comprises: an article region reception unit 11 which receives input of information of an article region obtained by performing polygonal approximation on a region where pixels continuously exist; a template determination unit 12d which generates a template image using information about a region where a pattern amount of a pattern region is equal to or greater than a prescribed first threshold and a distance to the closest angle of the article region is minimum; and an article surface information acquisition unit 12g which acquires and outputs article surface information in the article region by using information on one or more similar regions whose similarity to the template image is equal to or greater than a prescribed second threshold.SELECTED DRAWING: Figure 1

Description

本発明は、物品認識装置及び物品認識方法に関する。 The present invention relates to an article recognition device and an article recognition method.

従来、例えば、物流倉庫において、商品の仕分けやケースのパレタイズ、デパレタイズなどの工程において、人手に代わる手段として、ピッキングロボット等のロボットが用いられることがある。ピッキングロボットは、先端にグリッパー等が付いたロボットアームを有し、センサで取得された情報に基づいて、物品の把持や操作などを行う。 2. Description of the Related Art Conventionally, in distribution warehouses, for example, robots such as picking robots are sometimes used as a means to replace human labor in processes such as product sorting and case palletizing and depalletizing. A picking robot has a robot arm with a gripper or the like attached to its tip, and grips or manipulates an article based on information acquired by a sensor.

ピッキングロボットのピッキング性能を左右する機能として、センサで取得した情報を解析するための物品認識機能が挙げられる。物品認識機能は、一般的に、センサで取得した作業シーンの2次元画像及び3次元点群を与えると、その作業シーン内の物品の位置姿勢を推定することができる。それゆえ、物品認識機能は、ピッキングロボットによるその後の物品の正確な把持や操作にとって重要な役割を担う。 A function that affects the picking performance of a picking robot is an item recognition function for analyzing information acquired by a sensor. The article recognition function can generally estimate the position and orientation of an article in the work scene given a two-dimensional image and a three-dimensional point cloud of the work scene acquired by a sensor. Therefore, the item recognition function plays an important role for the subsequent accurate gripping and manipulation of the item by the picking robot.

物品認識機能による物品認識の難易度は、認識対象の物品の形状や、サイズ、表面の模様、配置、照明等の環境要因などによって変わるが、複数の物品が互いに密着して整列されている状況においては、その難易度はより高くなってしまう。複数の物品が互いに密着して整列される状況は、例えば、入荷直後の物流倉庫において、容器に商品(物品)が詰まっている場合や、段ボール箱が密に積み上げられている場合などにおいて起こる。 The degree of difficulty of item recognition by the item recognition function varies depending on the shape, size, surface pattern, placement, lighting, and other environmental factors of the item to be recognized. , the difficulty becomes even higher. A situation in which a plurality of articles are arranged in close contact with each other occurs, for example, in a distribution warehouse immediately after arrival, when goods (articles) are packed in containers, or when cardboard boxes are densely stacked.

物品同士が密着していると、その間の隙間は非常に小さくなるため、デプスセンサによる隙間検出が難しくなる。高精度のデプスセンサを採用することによって、非常に小さい隙間も検出可能となる場合もあるが、高精度のデプスセンサは非常に高価格であるため、その分生産コストが上昇してしまう。また、高精度のデプスセンサを採用した場合であっても、隙間の大きさによっては、安定した計測が望めない場合もある。 When the articles are in close contact with each other, the gap between them becomes very small, making it difficult for the depth sensor to detect the gap. By adopting a highly accurate depth sensor, it may be possible to detect even a very small gap, but the highly accurate depth sensor is very expensive, so the production cost increases accordingly. Moreover, even when a highly accurate depth sensor is employed, there are cases where stable measurement cannot be expected depending on the size of the gap.

また、物品間の隙間は2次元画像上では画素値が同程度の直線として見えるため、2次元画像での直線検出を行って物品の境界を特定することによって、物品認識性能を向上させる案も考えられる。しかし、物品の表面に模様がある場合であって、その模様が直線的である場合は、物品認識機能を有する物品認識装置がその模様を物品境界と誤って判定してしまい、物品の誤分離を招く危険性がある。 In addition, since the gaps between items can be seen as straight lines with similar pixel values on a 2D image, there is also a plan to improve the item recognition performance by detecting the lines in the 2D image and identifying the boundaries of the items. Conceivable. However, if there is a pattern on the surface of the article and the pattern is straight, an article recognition device having an article recognition function may erroneously determine the pattern as an article boundary, resulting in erroneous separation of the article. there is a risk of causing

密着して整列された物品(以下、「密整列物品」とも称する)の認識技術において、認識対象物品の情報を活用するアプローチも存在する。物品認識に活用が可能な情報としては、物品の形状やサイズ、表面の模様などが挙げられる。これらの情報を事前に得られれば、センサで取得したデータと、事前に得た認識対象物品の情報との照合処理により、物品をより正確に検出することも可能となる。しかし、認識対象物品の情報を事前に準備する場合、取り扱う物品の種類が多くなると、認識対象物品の情報の取得(準備)にかかるコストは膨大なものとなってしまう。 In the recognition technology of closely aligned articles (hereinafter also referred to as "closely aligned articles"), there is also an approach that utilizes information of recognition target articles. Information that can be used for product recognition includes the shape, size, and surface pattern of the product. If such information can be obtained in advance, it is possible to detect the article more accurately by collating the data obtained by the sensor with the information of the article to be recognized obtained in advance. However, when preparing information on recognition target articles in advance, the cost of acquiring (preparing) information on recognition target articles becomes enormous when the number of types of articles to be handled increases.

認識対象物品の情報の取得にかかる時間を削減する手法として、認識対象物品の情報の一部を、センサで取得したデータから抽出する手法も考えられる。例えば、特許文献1には、画像から取得した輪郭データから各ワークの位置及び姿勢を検出し、画像中のワーク部分の画像であるマスタ画像パターンと、各ワーク部分の画像とのパターンマッチングが成功した場合に、各ワークの位置及び姿勢を出力するワーク位置認識装置が開示されている。 As a method for reducing the time required to acquire information on a recognition target article, a method of extracting part of the information on the recognition target article from data acquired by a sensor is also conceivable. For example, in Patent Document 1, the position and orientation of each workpiece are detected from contour data obtained from an image, and pattern matching between the master image pattern, which is the image of the workpiece portion in the image, and the image of each workpiece portion is successful. A work position recognition device is disclosed that outputs the position and orientation of each work when the work is done.

特開2010-32258号公報Japanese Patent Application Laid-Open No. 2010-32258

特許文献1に記載のワーク位置認識装置は、ワーク上面の各マーク又は模様も対象としてパターンマッチングを行う。これにより、ワーク位置認識装置は、検出した各ワークの位置及び姿勢に、誤った検出結果が含まれていないか検証する。しかしながら、与えられた認識対象データから認識対象物品の模様情報を抽出するには、まず、認識対象物品の候補領域を特定する必要がある。 The workpiece position recognition device described in Patent Document 1 performs pattern matching on each mark or pattern on the upper surface of the workpiece as well. Thereby, the work position recognition device verifies whether or not the detected position and orientation of each work include an erroneous detection result. However, in order to extract the pattern information of the recognition target article from the given recognition target data, first, it is necessary to specify the candidate area of the recognition target article.

このとき、候補領域特定のための情報として、物品の形状の情報は与えられていたとしても、物品のサイズ情報は与えられていない状況も想定される。このような状況下において、物品認識装置が密整列物品を対象として物品認識を行う場合、密整列物品の整列面を実現する物品の配置パターンの数が膨大な数となってしまうことも想定され得る。この場合、物品認識装置は、密整列物品における各物品の境界を適切に検出して、物品を正しく切り出すことが難しくなる。このような状況を避けるために、物品のサイズ情報を事前に取得する場合、事前取得にコストがかかってしまう。 At this time, even if information on the shape of the article is given as information for specifying the candidate area, a situation is assumed in which size information on the article is not given. Under such circumstances, when an article recognition device performs article recognition on densely-aligned articles, it is conceivable that the number of article arrangement patterns that realize the alignment surface of densely-arranged articles will become enormous. obtain. In this case, it becomes difficult for the article recognition device to properly detect the boundaries of the articles in the closely aligned articles and cut out the articles correctly. If the size information of the article is to be acquired in advance to avoid such a situation, the prior acquisition costs a lot.

本発明は、上記の状況を考慮してなされたものであり、本発明の目的は、認識対象物品の模様やサイズなどの情報を事前に用意することなく、密接して整列された複数の物品の各物品を適切に認識できるようにすることにある。 The present invention has been made in consideration of the above situation, and an object of the present invention is to provide a method for recognizing a plurality of articles closely aligned without preparing information such as patterns and sizes of articles to be recognized in advance. to appropriately recognize each article.

本発明の一態様に係る物品認識装置は、互いに密着して配列された複数の物品の整列面と対応する画像を含む2次元画像において画素が連続して存在する領域を多角形近似することによって得られる物品領域の情報が入力される入力部と、所定値以上の画素が密集した模様領域の模様量が所定の第1閾値以上であり、かつ、物品領域を構成する角のうちの、自身の領域との最近接角との距離が最小である領域の情報を用いてテンプレート画像を生成するテンプレート画像生成部と、テンプレート画像との類似度が所定の第2閾値以上である一つ以上の類似領域の情報を用いて、物品領域における物品の面の位置及びサイズを含む物品面情報を取得して出力する物品面情報取得部と、を備える。 An article recognition device according to an aspect of the present invention performs polygonal approximation of an area in which pixels are continuously present in a two-dimensional image including an image corresponding to an alignment surface of a plurality of articles arranged in close contact with each other. an input unit for inputting information about the obtained product region; a pattern amount of a pattern region in which pixels having a predetermined value or more are densely packed is equal to or greater than a predetermined first threshold value; a template image generation unit that generates a template image using information about an area having the smallest distance from the nearest angle to the area of the template image; an article surface information acquisition unit that acquires and outputs article surface information including the position and size of the article surface in the article area using information on the similar area.

また、本発明の一態様に係る物品認識方法は、入力部に、互いに密着して配列された複数の物品の整列面と対応する画像を含む2次元画像において画素が連続して存在する領域を多角形近似することによって得られる物品領域の情報が入力される手順と、テンプレート画像生成部が、所定値以上の画素が密集した模様領域の模様量が所定の第1閾値以上であり、かつ、物品領域を構成する角のうちの、自身の領域との最近接角との距離が最小である領域の情報を用いてテンプレート画像を生成する手順と、物品面情報取得部が、テンプレート画像との類似度が所定の第2閾値以上である一つ以上の類似領域の情報を用いて、物品領域における物品の面の位置及びサイズを含む物品面情報を取得して出力する手順と、を含む。 Further, in the article recognition method according to an aspect of the present invention, the input unit inputs a region in which pixels are continuously present in a two-dimensional image including an image corresponding to an alignment surface of a plurality of articles arranged in close contact with each other. A procedure for inputting information of an article region obtained by polygonal approximation; A procedure for generating a template image using information of an area having a minimum distance from the nearest angle to its own area, among the corners forming the article area; and obtaining and outputting article surface information including the position and size of the surface of the article in the article area using information of one or more similar areas whose similarity is greater than or equal to a predetermined second threshold.

本発明の少なくとも一態様によれば、認識対象物品の模様やサイズなどの情報を事前に用意することなく、密接して整列された複数の物品の各物品を適切に認識できるようになる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to at least one aspect of the present invention, it is possible to appropriately recognize each of a plurality of closely aligned articles without preparing information such as patterns and sizes of recognition target articles in advance.
Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

本発明の一実施形態に係る物品認識装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an article recognition device according to one embodiment of the present invention; FIG. 本発明の一実施形態に係る物品領域の例を示す図である。FIG. 3 is a diagram illustrating an example of an article area according to one embodiment of the present invention; 本発明の一実施形態に係る物品認識装置を構成するハードウェアの構成例を示すブロック図である。1 is a block diagram showing a configuration example of hardware constituting an article recognition device according to an embodiment of the present invention; FIG. 本発明の一実施形態に係るテンプレート候補抽出部によるテンプレート候補抽出処理の概要を示す図である。FIG. 5 is a diagram showing an overview of template candidate extraction processing by a template candidate extraction unit according to an embodiment of the present invention; 本発明の一実施形態に係るテンプレート候補評価部及びテンプレート決定部による処理の概要を示す図である。FIG. 4 is a diagram showing an outline of processing by a template candidate evaluation unit and a template determination unit according to one embodiment of the present invention; 本発明の一実施形態に係るテンプレート候補評価部及びテンプレート決定部による処理の概要を示す図である。FIG. 4 is a diagram showing an outline of processing by a template candidate evaluation unit and a template determination unit according to one embodiment of the present invention; 本発明の一実施形態に係るテンプレート候補評価部及びテンプレート決定部による処理の概要を示す図である。FIG. 4 is a diagram showing an outline of processing by a template candidate evaluation unit and a template determination unit according to one embodiment of the present invention; 本発明の一実施形態に係る二つの星形模様と二本の直線模様とを有する物品が3つ密着して整列された物品領域を示す図である。FIG. 4 is a diagram showing an article area in which three articles having two star patterns and two line patterns are closely aligned according to an embodiment of the present invention; 本発明の一実施形態に係る推奨対策情報テーブルの構成例を示す図である。It is a figure which shows the structural example of the recommended measure information table which concerns on one Embodiment of this invention. 本発明の一実施形態に係る物品面情報取得部による処理の概要を示す図である。FIG. 4 is a diagram showing an overview of processing by an article surface information acquisition unit according to one embodiment of the present invention; 本発明の一実施形態に係る物品面情報取得部による処理の概要を示す図である。FIG. 4 is a diagram showing an overview of processing by an article surface information acquisition unit according to one embodiment of the present invention; 本発明の一実施形態に係る物品面情報取得部による処理の概要を示す図である。FIG. 4 is a diagram showing an overview of processing by an article surface information acquisition unit according to one embodiment of the present invention; 本発明の一実施形態に係る物品面情報取得部による処理の概要を示す図である。FIG. 4 is a diagram showing an overview of processing by an article surface information acquisition unit according to one embodiment of the present invention; 本発明の一実施形態に係る物品認識装置による物品認識処理の手順の例を示すフローチャートである。5 is a flow chart showing an example of the procedure of article recognition processing by the article recognition device according to one embodiment of the present invention; 本発明の一実施形態に係る物品認識装置から出力される物品面の情報の例を示す図である。FIG. 4 is a diagram showing an example of information on an article surface output from the article recognition device according to one embodiment of the present invention; 本発明の一実施形態に係る物品認識装置が適用される作業シーンの例を示す図である。1A and 1B are diagrams showing examples of work scenes to which an article recognition device according to an embodiment of the present invention is applied; FIG. 本発明の変形例に係る物品が円柱形状である場合における作業シーンの例を示す図である。FIG. 10 is a diagram showing an example of a work scene when an article according to a modification of the present invention has a columnar shape; 本発明の変形例に係る物品認識装置の概略構成を示すブロック図である。FIG. 11 is a block diagram showing a schematic configuration of an article recognition device according to a modification of the invention; 本発明の変形例に係る物品認識装置による物品認識処理の手順の例を示すフローチャートである。10 is a flow chart showing an example of a procedure of article recognition processing by an article recognition device according to a modification of the present invention; 本発明の一実施形態に係る本実施形態に係る物品認識装置を、ピッキングロボットによるピッキング対象の物品の認識処理を行う装置に適用した場合における、作業シーンの例を示す図である。1 is a diagram showing an example of a work scene when an article recognition device according to an embodiment of the present invention is applied to a device that recognizes an article to be picked by a picking robot; FIG.

以下、本発明を実施するための形態(以下、「実施形態」と称する)の例について、添付図面を参照しながら説明する。本発明は実施形態に限定されるものではなく、実施形態における種々の数値等は例示である。また、本明細書及び図面において、同一の構成要素又は実質的に同一の機能を有する構成要素には同一の符号を付することとし、重複する説明は省略する。 Hereinafter, examples of modes for carrying out the present invention (hereinafter referred to as "embodiments") will be described with reference to the accompanying drawings. The present invention is not limited to the embodiments, and various numerical values and the like in the embodiments are examples. In addition, in the present specification and drawings, the same components or components having substantially the same functions are denoted by the same reference numerals, and overlapping descriptions are omitted.

[物品認識装置の構成]
まず、図1を参照して、本発明の一実施形態に係る物品認識装置の構成について説明する。図1は、本発明の一実施形態に係る物品認識装置10の概略構成を示すブロック図である。
[Configuration of Article Recognition Device]
First, referring to FIG. 1, the configuration of an article recognition device according to one embodiment of the present invention will be described. FIG. 1 is a block diagram showing a schematic configuration of an article recognition device 10 according to one embodiment of the invention.

図1に示すように、本実施形態の物品認識装置10は、物品領域受付部11と、認識処理部12と、物品面情報出力部13と、を含む。 As shown in FIG. 1 , the article recognition device 10 of this embodiment includes an article area reception section 11 , a recognition processing section 12 and an article surface information output section 13 .

本実施形態における物品認識装置10には、互いに密着して整列された複数の物品の整列面に対応する、物品領域の情報が入力される。そして、物品認識装置10は、物品認識処理の実行時に、物品領域の中から、各物品の面(以下、「物品面」とも称する)の情報を取得する際に使用する、テンプレートマッチング用のテンプレート画像を抽出する。そして、物品認識装置10は、抽出したテンプレート画像との類似度が所定の閾値以上の類似領域を物品領域の中から抽出し、該類似領域の情報に基づいて、整列面を構成する各物品の物品面の情報(位置、サイズ等)を取得する。 The article recognition device 10 according to the present embodiment receives input of article area information corresponding to the alignment surfaces of a plurality of articles aligned in close contact with each other. Then, the article recognition apparatus 10 uses a template for template matching, which is used when acquiring information on the surface of each article (hereinafter also referred to as "article surface") from the article area when executing the article recognition process. Extract images. Then, the article recognition apparatus 10 extracts from the article area a similar area whose degree of similarity to the extracted template image is equal to or greater than a predetermined threshold value, and based on the information of the similar area, identifies each article constituting the alignment plane. Acquire information on the product surface (position, size, etc.).

つまり、本実施形態に係る物品認識装置10は、物品認識処理の実行時に抽出したテンプレート画像を用いて、物品領域内における各物品面の情報を求めるため、物品認識処理の対象となる物品が有する模様の情報や、物品のサイズの情報などが事前に与えられる必要はない。 In other words, the article recognition apparatus 10 according to the present embodiment uses the template image extracted when executing the article recognition processing to obtain the information of each article surface in the article area. Pattern information, article size information, etc. need not be given in advance.

なお、本実施形態に係る物品認識装置10は、物品領域が同種の物品の面(物品面)で構成される場合に最も高い物品認識性能を得られるが、物品領域が二種類以上の物品面で構成される場合にも、適用可能である。 The article recognition apparatus 10 according to the present embodiment can obtain the highest article recognition performance when the article area is composed of the same type of article surfaces (article surfaces). It is also applicable when configured with

物品領域受付部11(入力部の一例)は、物品領域の情報を受け付ける。物品領域は、互いに密着して整列された複数の物品の整列面の、センサによる撮影画像から、整列面の部分を抽出した情報である。センサは、例えば、RGB-D(Red Green Blue-Depth)カメラ等で構成され、3次元点群と対応する2次元画像を、撮影画像として出力する。 The article area reception unit 11 (an example of an input unit) receives information on an article area. The article area is information obtained by extracting the portion of the alignment surface from the sensor-captured images of the alignment surfaces of a plurality of articles aligned in close contact with each other. The sensor is composed of, for example, an RGB-D (Red Green Blue-Depth) camera or the like, and outputs a two-dimensional image corresponding to the three-dimensional point cloud as a captured image.

センサによる撮影画像は、一般的に、輪郭が長方形等の多角形で表現される。該撮影画像が、一つ以上の同種の物品面によって構成される領域を内部に含む場合、その領域を切り出して輪郭を多角形近似することによって、複数の物品が密着して整列されている整列面と対応する、物品領域の情報を得ることができる。 An image captured by a sensor is generally represented by a polygon whose outline is a rectangle or the like. When the photographed image contains an area composed of one or more article surfaces of the same type, an alignment in which a plurality of articles are closely aligned by cutting out the area and approximating the contour to a polygon. Information of the article area, corresponding to the surface, can be obtained.

そして、物品領域受付部11は、取得した物品領域の情報を、認識処理部12に出力する。物品領域における画素値は、スカラー量や多次元ベクトル量などで表現される。例えば、物品領域がRGB画像で表されている場合には、画素値は3次元ベクトルで表現される。 The article area reception unit 11 then outputs the acquired information on the article area to the recognition processing unit 12 . A pixel value in an article area is represented by a scalar quantity, a multidimensional vector quantity, or the like. For example, if the article area is represented by an RGB image, pixel values are represented by three-dimensional vectors.

なお、本実施形態に係る物品認識装置10に入力される物品領域の情報には、物品領域内において他の種類の模様と重複しない特徴的な模様を含むものであることが求められる。本実施形態に係る物品認識装置10は、物品に含まれる特徴的な模様を含む部分領域と、該部分領域と物品領域の最近接角との間の距離の情報を用いて、テンプレート画像を生成するためである。物品領域の最近接角は、物品領域を構成するいくつかの角の中で、着目する部分領域に最も近い位置にある角である。 It should be noted that the article area information input to the article recognition apparatus 10 according to the present embodiment is required to include a characteristic pattern that does not overlap with other types of patterns in the article area. The article recognition apparatus 10 according to the present embodiment generates a template image using information on the distance between a partial area including a characteristic pattern included in an article and the closest angle between the partial area and the article area. It is for The closest angle of the article area is the corner that is closest to the target partial area among several corners forming the article area.

つまり、本実施形態に係る物品領域は、物品領域内において他の種類の模様と重複しない特徴的な模様を含み、模様領域以外の領域の画素値が所定の一定値である一種類以上の多角形が、2次元平面上に敷き詰められることによって構成されたものであると言える。 That is, the article area according to the present embodiment includes a characteristic pattern that does not overlap with other types of patterns in the article area, and one or more types of multi-color patterns in which pixel values in areas other than the pattern area are predetermined constant values. It can be said that the squares are formed by laying them on a two-dimensional plane.

ここで、図2を参照して、物品領域の例について説明する。図2は、物品領域の例を示す図である。図2Aには、長方形形状の物品211が6つ密着して整列されてなる、長方形形状の物品領域21を示す。物品211は、一つの黒色の星形模様と、二本の直線模様とを含む。 An example of an article region will now be described with reference to FIG. FIG. 2 is a diagram showing an example of an article area. FIG. 2A shows a rectangular article area 21 comprising six closely aligned rectangular articles 211 . Article 211 includes one black star pattern and two linear patterns.

図2Bには、図2Aに示した物品211が5つ密接して整列されてなる、十角形形状の物品領域22を示す。物品領域22において、各物品211を構成する各辺は、互いに垂直又は水平に配置されている。図2Cには、平行四辺形形状の物品231が5つ密着して整列されてなる、八角形形状の物品領域23を示す。物品231は、一つの黒色の星形模様と、一本の直線模様とを含む。 FIG. 2B shows a decagonal shaped article region 22 comprising five closely aligned articles 211 shown in FIG. 2A. In the article area 22, the sides forming each article 211 are arranged vertically or horizontally with respect to each other. FIG. 2C shows an octagonal shaped article region 23 comprising five closely aligned parallelogram shaped articles 231 . Article 231 includes one black star pattern and one linear pattern.

図1に戻って説明を続ける。認識処理部12は、物品領域における一つ以上の物品面の位置を計算して、計算した物品面の位置の情報を物品面情報出力部13に出力する。物品面の位置は、物品領域内において物品面が占める領域を特定するために必要な情報であり、例えば、物品面の頂点座標等がある。 Returning to FIG. 1, the description continues. The recognition processing section 12 calculates the positions of one or more article surfaces in the article area, and outputs information on the calculated positions of the article surfaces to the article surface information output section 13 . The position of the article surface is information necessary for specifying the area occupied by the article surface within the article area, and includes, for example, vertex coordinates of the article surface.

認識処理部12は、模様量計算部12aと、テンプレート候補抽出部12bと、テンプレート候補評価部12cと、テンプレート決定部12dと、類似領域検出部12eと、類似領域評価部12fと、物品面情報取得部12gと、テンプレート候補情報保持部12hと、を含む。 The recognition processing unit 12 includes a pattern amount calculation unit 12a, a template candidate extraction unit 12b, a template candidate evaluation unit 12c, a template determination unit 12d, a similar region detection unit 12e, a similar region evaluation unit 12f, and article surface information. It includes an acquisition unit 12g and a template candidate information holding unit 12h.

模様量計算部12aは、物品領域受付部11から入力された物品領域における、模様量の分布を計算する。模様量は、所定の領域に含まれる画像の模様度合いを表す指標であり、物品領域を構成する2次元画像の画素値から計算される。模様度合いは、その領域が何かしらの模様を構成している確率の高さを示し、該模様は、例えば、図2A及びBに示す星形模様等の模様である。 The pattern amount calculation unit 12 a calculates the pattern amount distribution in the article area input from the article area reception unit 11 . The pattern amount is an index representing the pattern degree of an image included in a predetermined area, and is calculated from the pixel values of the two-dimensional image forming the article area. The degree of pattern indicates the probability that the area forms some pattern, and the pattern is, for example, a pattern such as the star pattern shown in FIGS. 2A and 2B.

模様量は、例えば、隣接画素との画素値の差を表す輝度勾配、人間の目の付きやすさを定量化した顕著性、SIFT(Scale Invariant Feature Transform)に代表される局所画像特徴量、ニューラルネットワーク等を用いて計算される画像特徴量等によって示される。もしくは、模様量は、これらの内の一つ以上を組み合わせたものによって示されてもよい。 The pattern amount includes, for example, a luminance gradient that represents the difference in pixel value from adjacent pixels, saliency that quantifies how easy it is for the human eye to notice, a local image feature value represented by SIFT (Scale Invariant Feature Transform), a neural It is indicated by an image feature amount or the like calculated using a network or the like. Alternatively, the pattern amount may be indicated by a combination of one or more of these.

テンプレート候補抽出部12bは、模様量(又は模様量の密度)が予め定められた所定の閾値(第1閾値の一例)以上となる、物品領域内の一つ以上の部分領域を、テンプレート画像の候補(以下、「テンプレート候補」と称する)として抽出する。模様量に適用する閾値は、模様を含む物品の実際の撮影画像から得られる情報等に基づいて、任意の値に設定が可能である。模様量の密度とは、模様として検知された複数の画像の密集度合いを示す。 The template candidate extraction unit 12b selects one or more partial regions in the article region, in which the pattern amount (or pattern amount density) is equal to or greater than a predetermined threshold value (an example of a first threshold value), from the template image. It is extracted as a candidate (hereinafter referred to as "template candidate"). The threshold applied to the pattern amount can be set to an arbitrary value based on information obtained from an actual photographed image of the article including the pattern. The pattern amount density indicates the density of a plurality of images detected as patterns.

テンプレート候補評価部12cは、テンプレート候補抽出部12bで抽出されたテンプレート候補のそれぞれに対して、最近接角、すなわち、物品領域を構成するいくつかの角の中で最も近い角との間の距離を計算する。 The template candidate evaluation unit 12c calculates the distance between each of the template candidates extracted by the template candidate extraction unit 12b and the closest angle, that is, the closest angle among several corners forming the article region. to calculate

テンプレート候補情報保持部12hは、一つ以上のテンプレート候補と、該テンプレート候補に対応する一つ以上の距離(最近接角との距離)との対応情報を保持する。また、テンプレート候補情報保持部12hは、次のテンプレート決定部12dによって生成されたテンプレート画像、もしくは、物品面情報取得部12gによって取得された物品面情報に基づいて生成された画像を保持する。テンプレート候補情報保持部12hに保持されるテンプレート画像、又は、物品面情報に基づき生成された画像は、2回目以降に行われる類似領域検出部12e、類似領域評価部12f及び物品面情報取得部12gによる処理においても用いられる。 The template candidate information holding unit 12h holds correspondence information between one or more template candidates and one or more distances (distances to the closest angles) corresponding to the template candidates. Further, the template candidate information holding unit 12h holds a template image generated by the next template determining unit 12d or an image generated based on the article surface information acquired by the article surface information acquiring unit 12g. The template image held in the template candidate information holding unit 12h or the image generated based on the article surface information is processed by the similar area detection unit 12e, the similar area evaluation unit 12f, and the article surface information acquisition unit 12g performed for the second and subsequent times. It is also used in processing by

テンプレート決定部12d(テンプレート画像生成部の一例)は、テンプレート候補情報保持部12hを参照して、物品領域の最近接角からの距離が最小となるテンプレート候補を、テンプレート画像生成用のテンプレートに決定する。そして、選択したテンプレート候補からテンプレート画像を生成する。 The template determination unit 12d (an example of the template image generation unit) refers to the template candidate information storage unit 12h and determines the template candidate with the smallest distance from the nearest angle of the article area as the template for template image generation. do. Then, a template image is generated from the selected template candidates.

類似領域検出部12eは、テンプレート候補情報保持部12hが抽出したテンプレート画像を用いて、物品領域内の一つ以上の類似領域を検出する。類似領域は、テンプレート画像との類似度が所定の閾値(第2閾値の一例)以上の画像が含まれる領域である。類似度の高さを図る閾値には、テンプレート画像との類似度として期待する類似度を適宜設定可能である。 The similar region detection unit 12e uses the template image extracted by the template candidate information holding unit 12h to detect one or more similar regions within the article region. A similar region is a region that includes an image whose degree of similarity to the template image is equal to or greater than a predetermined threshold (an example of a second threshold). An expected similarity to the template image can be appropriately set as the threshold value for measuring the degree of similarity.

類似領域評価部12fは、類似領域検出部12eによって検出された類似領域のうちの、物品領域の最近接角との距離が最小となる類似領域を対象として、その物品領域と最近接角との間の相対的位置関係(相対的位置関係情報の一例)を計算する。相対的位置関係は、着目する類似領域を含む物品面の中のどの位置にその類似領域が存在しているかを特定するための情報であり、例えば、着目する類似領域における所定の点と、その物品領域の最近接角との間の変位を表す2次元ベクトル等によって示される。 Among the similar regions detected by the similar region detection unit 12e, the similar region evaluation unit 12f targets the similar region having the smallest distance to the nearest angle of the article region, and calculates the distance between the article region and the nearest angle. Calculate the relative positional relationship between (an example of relative positional relationship information). The relative positional relationship is information for specifying at which position in the article surface including the similar region of interest the similar region exists. It is indicated by a two-dimensional vector or the like representing the displacement between the nearest angles of the article area.

物品面情報取得部12gは、類似領域評価部12fによって計算された相対的位置関係に基づいて、物品領域内の一つ以上の物品面の情報(位置及びサイズ)を計算する。そして、物品面情報取得部12gは、得た一つ以上の物品面の情報(以下、「物品面情報」とも称する)を、物品面情報出力部13に出力する。 The article surface information acquisition unit 12g calculates information (position and size) of one or more article surfaces within the article area based on the relative positional relationship calculated by the similar area evaluation unit 12f. Then, the article side information acquisition section 12 g outputs the obtained one or more article side information (hereinafter also referred to as “article side information”) to the article side information output section 13 .

物品面情報出力部13は、認識処理部12から入力された、一つ以上の物品面の情報を、外部のロボット(図示略)等に出力する。 The article surface information output unit 13 outputs one or more pieces of article surface information input from the recognition processing unit 12 to an external robot (not shown) or the like.

[計算機のハードウェア構成例]
次に、図1に示した物品認識装置10を構成するハードウェアの構成について、図3を参照して説明する。図3は、物品認識装置10を構成するハードウェアの構成例を示すブロック図である。
[Computer hardware configuration example]
Next, the hardware configuration of the article recognition device 10 shown in FIG. 1 will be described with reference to FIG. FIG. 3 is a block diagram showing a configuration example of hardware constituting the article recognition device 10. As shown in FIG.

図3に示す計算機200は、物品認識装置10で使用されるコンピュータとして用いられるハードウェアである。計算機200は、プロセッサ201と、メモリ202と、補助記憶装置203と、入力装置204と、出力装置205と、通信IF(Interface)206と、を含む。計算機200を構成する各要素は、バス37により相互に通信可能に接続される。 A computer 200 shown in FIG. 3 is hardware used as a computer used in the article recognition device 10 . The computer 200 includes a processor 201 , a memory 202 , an auxiliary storage device 203 , an input device 204 , an output device 205 and a communication IF (Interface) 206 . Each element constituting the computer 200 is connected by a bus 37 so as to be able to communicate with each other.

プロセッサ201は、CPU(Central Processing Unit)又はMPU(Multi-Functional Peripherals)等によって構成され、メモリ202に格納されているプログラムを読みだして実行することにより、本実施形態に係る物品認識処理(物品認識装置10の各部によって実行される各処理)を実行する。 The processor 201 is configured by a CPU (Central Processing Unit) or MPU (Multi-Functional Peripherals) or the like, and reads out and executes a program stored in the memory 202 to perform article recognition processing (article recognition processing) according to the present embodiment. Each process executed by each unit of the recognition device 10) is executed.

メモリ202は、例えば、不揮発性の記憶素子と揮発性の記憶素子とで構成される。不揮発性の記憶素子は、例えばROM(Read Only Memory)で構成され、ROMには、変更する必要のないプログラムが格納される。揮発性の記憶素子は、例えばRAM(Random Access Memory)で構成され、RAMは、プロセッサ201が実行するプログラム及びプログラム実行時に使用するデータが一時的に格納される。 The memory 202 is composed of, for example, a nonvolatile memory element and a volatile memory element. The non-volatile storage element is composed of, for example, a ROM (Read Only Memory), and the ROM stores a program that does not need to be changed. The volatile storage element is composed of, for example, a RAM (Random Access Memory), and the RAM temporarily stores programs executed by the processor 201 and data used when the programs are executed.

なお、本実施形態では、メモリ202に格納されるプログラムは、物品認識処理を実行するプログラムであることを想定しているが、その他の種々のプログラムも格納されてよい。また、メモリ202には、プログラム実行のための入力データや出力データも格納される。 In this embodiment, it is assumed that the program stored in the memory 202 is a program for executing article recognition processing, but various other programs may also be stored. The memory 202 also stores input data and output data for program execution.

補助記憶装置203は、例えば磁気記憶装置(HDD:Hard Disk Drive)等の不揮発性の大容量な記憶装置を含み、プロセッサ201が実行するプログラム及びプログラム実行時に使用されるデータ(データベース等を含む)を記憶する。本実施形態における物品認識処理のプログラムは、例えば、予め補助記憶装置203に記憶されていて、そこから読みだされて、メモリ202にロードされて、プロセッサ201によって実行される。すなわち、メモリ202又は補助記憶装置203は、計算機200によって実行されるプログラムを格納したコンピュータ読取可能な非一過性の記憶媒体の一例として用いられる。 The auxiliary storage device 203 includes, for example, a nonvolatile large-capacity storage device such as a magnetic storage device (HDD: Hard Disk Drive), and includes programs executed by the processor 201 and data (including databases, etc.) used when the programs are executed. memorize A program for article recognition processing in this embodiment is, for example, pre-stored in the auxiliary storage device 203 , read from there, loaded into the memory 202 , and executed by the processor 201 . That is, the memory 202 or the auxiliary storage device 203 is used as an example of a computer-readable non-transitory storage medium that stores programs executed by the computer 200 .

入力装置204は、キーボード又はマウス等で構成され、不図示のオペレータからの入力を受け付ける入力部である。計算機200は、プログラムの実行や入力データの指定などの指示を、入力装置204を介して受け付ける。 The input device 204 is an input unit configured with a keyboard, a mouse, or the like, and receives input from an operator (not shown). The computer 200 receives instructions such as program execution and input data designation via the input device 204 .

出力装置205は、情報を表示する表示装置又は情報を印字するプリンタ等で構成され、プログラムの実行結果を可視的に出力する。例えば、出力装置205には、物品面情報出力部13(図1参照)から出力される物品面位置等が表示又は出力される。 The output device 205 is configured by a display device for displaying information, a printer for printing information, or the like, and visually outputs results of program execution. For example, the output device 205 displays or outputs the article surface position and the like output from the article surface information output unit 13 (see FIG. 1).

通信IF206は、物品認識装置10と他の装置とを接続して通信を制御するネットワークインターフェース装置である。 The communication IF 206 is a network interface device that connects the article recognition device 10 and other devices and controls communication.

なお、この計算機200のハードウェア構成は、単体の計算機で構成されてもよいし、計算機200を構成するプロセッサ201、メモリ202、補助記憶装置203、入力装置204、出力装置205、通信IF206の一つ以上の構成部位が、不図示のネットワークによって接続された一つ以上の計算機で構成されてもよい。 The hardware configuration of this computer 200 may be configured as a single computer, or may include a processor 201, a memory 202, an auxiliary storage device 203, an input device 204, an output device 205, and a communication IF 206 that configure the computer 200. One or more components may be composed of one or more computers connected by a network (not shown).

[テンプレート候補抽出部による処理]
次に、図4を参照して、テンプレート候補抽出部12b(図1参照)によるテンプレート候補抽出処理について説明する。図4は、テンプレート候補抽出部12bによるテンプレート候補抽出処理の概要を示す図である。
[Processing by Template Candidate Extraction Unit]
Next, template candidate extraction processing by the template candidate extraction unit 12b (see FIG. 1) will be described with reference to FIG. FIG. 4 is a diagram showing an outline of template candidate extraction processing by the template candidate extraction unit 12b.

テンプレート候補抽出部12bは、模様量計算部12aで計算された模様量分布に基づいて、模様量又は模様量の密度が所定の閾値値以上となる物品領域内の一つ以上の部分領域を、テンプレート候補として抽出する。図4の左側に示す例では、物品領域21において、星形模様を含むテンプレート候補Tc1~Tc5が抽出された例を示しており、テンプレート候補Tc1~Tc5は、それぞれ破線の矩形枠によって示されている。なお、テンプレート候補抽出部12bが抽出するテンプレート候補は、形状やサイズが互いに異なっていてもよく、互いに重なりがあってもよい。 Based on the pattern amount distribution calculated by the pattern amount calculation unit 12a, the template candidate extraction unit 12b selects one or more partial areas in the article area where the pattern amount or the density of the pattern amount is equal to or greater than a predetermined threshold value. Extract as a template candidate. The example shown on the left side of FIG. 4 shows an example in which template candidates Tc1 to Tc5 including a star-shaped pattern are extracted from the article region 21, and the template candidates Tc1 to Tc5 are each indicated by a dashed rectangular frame. there is The template candidates extracted by the template candidate extraction unit 12b may have different shapes and sizes, and may overlap each other.

テンプレート候補として抽出される画像は、単一の物品に属していることが好ましい。テンプレート候補として抽出される画像が、複数の物品にまたがって形成される画像である場合、そのテンプレート画像を用いて抽出される類似領域は、複数の物品の情報を反映したものとなってしまう。そして、このような類似領域の情報に基づいて抽出される物品面の情報は、個々の物品に対応したものとはならなくなってしまう。 Images extracted as template candidates preferably belong to a single article. If an image extracted as a template candidate is an image formed across a plurality of articles, the similar region extracted using the template image will reflect information on the plurality of articles. Then, the information on the surface of the article extracted based on the information on the similar region does not correspond to the individual article.

物品の境界付近に特徴的な模様がある場合は特に、複数の物品にまたがる領域の画像が、テンプレート候補として抽出されることも想定される。図4の左側に示す例では、テンプレート候補Tc2及びテンプレート候補Tc5が、この例に該当する。 It is also assumed that an image of an area spanning multiple articles is extracted as a template candidate, especially when there is a characteristic pattern near the boundary of the article. In the example shown on the left side of FIG. 4, template candidate Tc2 and template candidate Tc5 correspond to this example.

複数の物品にまたがるテンプレート候補は、単一の物品に属するものと比べて、物品境界に由来する直線模様が現れやすい。そして、このような直線模様は、テンプレート候補の領域を分断する位置に配置されている。したがって、テンプレート候補の領域を分断する位置に直線模様があるテンプレート候補を、テンプレート候補から除外することにより、複数の物品にまたがる領域の画像が、テンプレート候補として抽出されてしまうことを防ぐことができる。 A template candidate that spans a plurality of articles is more likely to have a linear pattern derived from the article boundary than a template candidate that belongs to a single article. Such a linear pattern is arranged at a position dividing the region of the template candidate. Therefore, by excluding template candidates having a linear pattern at a position dividing the template candidate region from the template candidates, it is possible to prevent an image of a region that spans multiple articles from being extracted as a template candidate. .

図4の右側に、テンプレート候補の領域を分断する位置に直線模様があるテンプレート候補を、テンプレート候補から除外された後の物品領域21Aの例を示す。図4の右側に示す物品領域21Aにおいては、図4の左側に示されていたテンプレート候補Tc2及びTc5が、テンプレート候補から外れている。テンプレート候補抽出部12bは、テンプレート候補Tc1,Tc3及びTc4の情報を、テンプレート候補評価部12cに出力する。 The right side of FIG. 4 shows an example of the article area 21A after template candidates having linear patterns at positions dividing the template candidate areas are excluded from the template candidates. In the article area 21A shown on the right side of FIG. 4, the template candidates Tc2 and Tc5 shown on the left side of FIG. 4 are out of the template candidates. The template candidate extraction unit 12b outputs the information of the template candidates Tc1, Tc3 and Tc4 to the template candidate evaluation unit 12c.

[テンプレート候補評価部及びテンプレート決定部による処理]
次に、図5~図7を参照して、テンプレート候補評価部12c及びテンプレート決定部12dによる処理について説明する。図5~図7は、テンプレート候補評価部12c及びテンプレート決定部12dによる処理の概要を示す図である。
[Processing by Template Candidate Evaluation Unit and Template Determination Unit]
Next, processing by the template candidate evaluation unit 12c and the template determination unit 12d will be described with reference to FIGS. 5 to 7. FIG. 5 to 7 are diagrams showing an outline of processing by the template candidate evaluation unit 12c and the template determination unit 12d.

テンプレート候補評価部12cは、テンプレート候補抽出部12bによって抽出されたテンプレート候補それぞれに対して、物品領域の角の中で最も近い角(最近接角)との間の距離を計算する。テンプレート候補評価部12cは、この距離として、例えば物品領域において着目する角と、テンプレート候補内の着目する画素との間の2次元ユークリッド距離の最小値等を計算する。 The template candidate evaluation unit 12c calculates the distance between each template candidate extracted by the template candidate extraction unit 12b and the nearest corner (closest angle) among the corners of the article region. As this distance, the template candidate evaluation unit 12c calculates, for example, the minimum value of the two-dimensional Euclidean distance between the corner of interest in the article region and the pixel of interest in the template candidate.

ここで、テンプレート候補評価部12cは、テンプレート候補との距離の計算対象となる物品領域の角として、物品領域の角の最小角度との差分が所定の閾値(第3閾値の一例)未満となる角度を有する角のみを選択する。この処理は、次のテンプレート決定部12dにおいて行われるテンプレート決定処理において、複数のテンプレート候補の中から、単一の物品に属するテンプレート候補を抽出できるようにする目的において行われる。 Here, the template candidate evaluation unit 12c determines that the difference from the minimum angle of the corner of the article region becomes less than a predetermined threshold (an example of the third threshold) as the corner of the article region for which the distance from the template candidate is calculated. Select only corners with angles. This processing is performed for the purpose of extracting a template candidate belonging to a single article from among a plurality of template candidates in the template determination processing performed by the template determination unit 12d.

上記の目的に即した結果が得られるには、最近接角との距離の計算時に着目した物品領域における角が、複数の物品によって占められる角ではなく、単一の物品によって占められる角である必要がある。複数の物品によって占められる角を、選択(着目)する対象から外すために、テンプレート候補評価部12cは、物品領域の角の角度の最小値を特定し、該最小値との差分が所定の閾値以上となる角度を有する角を、選択対象から除外することを行う。物品領域の角の最小角度と着目する角の角度との差分に対応付けられる閾値には、テンプレート候補を適切に決定することを可能とする任意の値を設定可能である。 To achieve results consistent with the above objectives, the corners in the article region of interest when calculating the distance to the closest angle should be corners occupied by a single article rather than corners occupied by multiple articles. There is a need. In order to exclude corners occupied by a plurality of articles from targets to be selected (focused), the template candidate evaluation unit 12c specifies the minimum angle of the corners of the article region, and the difference from the minimum value is a predetermined threshold value. Corners having angles equal to or greater than are excluded from selection targets. The threshold associated with the difference between the minimum angle of the corner of the article region and the angle of the corner of interest can be set to any value that enables appropriate determination of template candidates.

複数の物品によって占められる角の角度は、単一の物品で占められる角の角度に比べて小さいため、このような処理を行うことにより、最近接角との距離の計算時に着目する角の中から、複数の物品で占められる角を除外することができる。ただし、この処理が成立するには、物品面の角の最小角度が、物品領域角の最小角度と一致していることが条件となる。 Since the angle of the corner occupied by multiple articles is smaller than the angle of the corner occupied by a single article, by performing such processing, it is possible to , we can exclude corners that are occupied by multiple items. However, in order for this process to work, the minimum angle of the corners of the article surface must match the minimum angle of the article area angles.

図5の左側に示す物品領域22と、右側に示す物品領域23との両方において、最近接角との距離の計算対象として選択(着目)された角は、黒丸印で示される。図7の左側に示す物品領域22においては、内角の角度が90度である角のみが選択されており、90度よりも大きい270度の角度を有する角は、選択から外れている。 In both the article area 22 shown on the left side of FIG. 5 and the article area 23 shown on the right side, the corners selected (observed) for calculation of the distance to the closest angle are indicated by black circle marks. In the article region 22 shown on the left side of FIG. 7, only corners with interior angles of 90 degrees are selected, corners with angles of 270 degrees greater than 90 degrees are not selected.

また、図5の右側に示す物品領域23においては、内角の角度が60度の角のみが選択されており、60度よりも大きい120度の角及び240度の角は、角の選択から外れている。テンプレート候補評価部12cによってこのような処理が行われることにより、複数の物品によって占められる角を、最近接角との距離の計算時に選択(着目)する対象から外すことが可能となる。 In addition, in the article region 23 shown on the right side of FIG. 5, only angles with an internal angle of 60 degrees are selected, and angles of 120 degrees and 240 degrees, which are larger than 60 degrees, are not selected as angles. ing. By performing such processing by the template candidate evaluation unit 12c, it becomes possible to exclude the corners occupied by a plurality of articles from the targets to be selected (focused) when calculating the distance to the closest angle.

図6に、最近接角との距離が矢印によって示された物品領域21を示す。図6において、テンプレート候補Tc1~Tc5は一点鎖線又は実線の矩形枠により示され、物品領域21の最近接角からの距離に対応する2次元ベクトルは、実線の矢印によって示されている。実線の矩形枠により示されるテンプレート候補Tc1は、最近接角Cc1からの距離D1が最小である領域である。一方、一点鎖線の矩形枠により示されるテンプレート候補Tc2~Tc5は、それぞれの最近接角Cc2~Cc4からの距離D2~D5が、最小ではない領域である。 FIG. 6 shows the article area 21 with the distance to the closest angle indicated by an arrow. In FIG. 6, the template candidates Tc1 to Tc5 are indicated by dashed-dotted or solid-line rectangular frames, and the two-dimensional vectors corresponding to the distance from the nearest angle of the article area 21 are indicated by solid-line arrows. A template candidate Tc1 indicated by a solid-line rectangular frame is an area where the distance D1 from the closest angle Cc1 is the smallest. On the other hand, the template candidates Tc2 to Tc5 indicated by the rectangular frames of the dashed-dotted lines are regions in which the distances D2 to D5 from the respective closest angles Cc2 to Cc4 are not the minimum.

このような、最近接角Cc2~Cc4からの距離D2~D5が最小でないテンプレート候補Tc2~Tc5の中には、複数の物品にまたがるテンプレート候補が含まれる可能性がある。実際に、テンプレート候補Tc2及びテンプレート候補Tc5は、複数の物品にまたがっている。このようなテンプレート候補が、テンプレート決定部12dによってテンプレート画像として決定され、該テンプレート画像を用いて物品面の位置が計算された場合、物品の境界が誤って検出されてしまい、物品が誤分離されてしまう可能性がある。 Such template candidates Tc2 to Tc5 whose distances D2 to D5 from the nearest angles Cc2 to Cc4 are not the smallest may include template candidates that span multiple articles. In fact, the template candidate Tc2 and the template candidate Tc5 span multiple articles. When such a template candidate is determined as a template image by the template determination unit 12d and the position of the article surface is calculated using the template image, the boundary of the article is erroneously detected and the article is erroneously separated. There is a possibility that

なお、上述したように、最近接角からの距離が最小であるテンプレート候補をテンプレート画像として選択することにより、物品の境界の誤認識の発生を防ぐことが可能であるが、テンプレート候補評価部12cがテンプレート候補の領域を変形することにより、単一の物品に属するテンプレート候補のみを選択可能とする確率を、より高めることができる。 As described above, by selecting the template candidate whose distance from the nearest angle is the shortest as the template image, it is possible to prevent misrecognition of the boundary of the article. By transforming the region of the template candidate, the probability that only template candidates belonging to a single article can be selected can be increased.

複数の物品にまたがるテンプレート候補は、互いに隣接する物品の境界付近にある模様をそれぞれ含むことによって現れ得る。そのため、テンプレート候補評価部12cが、テンプレート候補の領域を、より狭い部分領域に制限されるように変形(縮小)すれば、テンプレート候補を、単一の物品に属するテンプレート候補のみに絞ることが可能になる。 Candidate templates that span multiple articles may appear by each including patterns near the boundaries of adjacent articles. Therefore, if the template candidate evaluation unit 12c transforms (reduces) the template candidate area so that it is restricted to a narrower partial area, the template candidates can be narrowed down to only template candidates belonging to a single article. become.

テンプレートの変形は、例えば、テンプレート候補を物品領域の最近接角の方向に所定の割合だけ縮小することによって行うことができる。縮小の大きさは、例えば、1/2等の固定の大きさに設定されてもよく、検出された模様の大きさに基づいて任意の大きさに設定されてもよい。あるいは、テンプレート候補の領域を分断する直線模様を含まなくなる大きさに縮小することによって、テンプレート候補の領域を変形してもよい。 The deformation of the template can be performed, for example, by shrinking the template candidate by a predetermined percentage in the direction of the nearest angle of the article area. The size of reduction may be set, for example, to a fixed size such as 1/2, or may be set to an arbitrary size based on the size of the detected pattern. Alternatively, the template candidate area may be deformed by reducing the size to a size that does not include the linear pattern that divides the template candidate area.

図7に、テンプレート候補の領域の変形処理の概要を示す。図7の左側に示す物品領域24及び右側に示す物品領域24Aは、一つの星形模様と二本の直線模様とを含む物品241が4つ密着して整列することによって構成される領域である。 FIG. 7 shows an overview of the deformation processing of the template candidate area. An article area 24 shown on the left side of FIG. 7 and an article area 24A shown on the right side are areas formed by closely aligning four articles 241 each including one star pattern and two linear patterns. .

図7の左側には、3つのテンプレート候補Tc11~Tc13が実線の矩形枠により示されている。これらのテンプレート候補Tc11~Tc13のうち、最近接角との距離が最も短いのは、テンプレート候補Tc11である。しかしながら、テンプレート候補Tc11は、複数の物品にまたがっている。 On the left side of FIG. 7, three template candidates Tc11 to Tc13 are indicated by solid-line rectangular frames. Among these template candidates Tc11 to Tc13, template candidate Tc11 has the shortest distance to the nearest angle. However, the template candidate Tc11 extends over multiple articles.

図7の右側に、テンプレート候補評価部12cが、テンプレート候補Tc11~Tc13の各領域を、それぞれの最近接角の方向に縮小した場合における物品領域24Aの例を示す。図7の右側に示す物品領域24において、縮小前のテンプレート候補Tc11~Tc13は一点鎖線の矩形枠によって示され、縮小後のテンプレート候補Tc11′~Tc13′は実線の矩形枠によって示される。最近接角の方向に領域が縮小されたテンプレート候補Tc11′~Tc13′の中には、複数の物品をまたぐものがなくなっていることがわかる。 The right side of FIG. 7 shows an example of an article area 24A when the template candidate evaluation unit 12c reduces each area of the template candidates Tc11 to Tc13 in the direction of the nearest angle. In the product area 24 shown on the right side of FIG. 7, the template candidates Tc11 to Tc13 before reduction are indicated by the rectangular frames of dashed-dotted lines, and the template candidates Tc11' to Tc13' after reduction are indicated by the solid-line rectangular frames. It can be seen that none of the template candidates Tc11' to Tc13' whose regions are reduced in the direction of the nearest tangent angle crosses multiple articles.

テンプレート決定部12dは、最近接角との距離が最も小さいテンプレート候補を、テンプレート画像の生成に使用するテンプレートに決定する。 The template determination unit 12d determines a template candidate with the shortest distance to the nearest angle as a template to be used for generating a template image.

ここで、テンプレート決定部12dが、物品領域の最近接角からの距離が小さいテンプレート候補を選択することによって得られる効果について説明する。物品領域の角の付近の領域は、物品領域の内部(内側)の領域よりも、単一の物品によって占められている可能性が高い。したがって、角の付近に存在するテンプレート候補は、物品領域の内部の領域に存在するテンプレート候補よりも、単一の物品に属する可能性は高くなる。 Here, the effect obtained by the template determination unit 12d selecting a template candidate whose distance from the nearest angle of the article area is small will be described. Areas near the corners of an item area are more likely to be occupied by a single item than areas inside the item area. Therefore, a template candidate that exists near a corner is more likely to belong to a single article than a template candidate that exists in an area inside the article area.

一方、複数の物品にまたがる位置に存在するテンプレート候補に基づいて生成されたテンプレート画像は、複数の物品にまたがっている可能性が高い。したがって、そのテンプレート画像に基づいて計算された物品面の位置は、実際の物品面の位置とは異なってしまう可能性が高くなる。つまり、互いに密着して整列された個々の物品を正しく分離できなくなってしまう。このような誤分離の発生を防ぐ目的において、本実施形態のテンプレート決定部12dは、物品領域の最近接角からの距離が小さいテンプレート候補を選択して、テンプレート画像を生成する。 On the other hand, there is a high possibility that a template image generated based on a template candidate existing at a position that spans multiple articles will span multiple articles. Therefore, the position of the article surface calculated based on the template image is highly likely to be different from the actual position of the article surface. In other words, it becomes impossible to properly separate the individual articles that are closely aligned with each other. In order to prevent such erroneous separation from occurring, the template determining unit 12d of this embodiment selects a template candidate whose distance from the nearest angle of the article region is small, and generates a template image.

なお、テンプレート画像は、テンプレート決定部12dによって選択されたテンプレート候補と必ずしも一致する必要はない。例えば、形状については、選択されたテンプレート候補を囲むバウンディングボックスでも構わない。また、構成要素については、以降の類似度計算を可能にするものであれば、対応する領域の画素値そのものでなくても、画素値から計算される何らかの画像特徴量でも構わない。 Note that the template image does not necessarily have to match the template candidate selected by the template determination unit 12d. For example, the shape may be a bounding box surrounding the selected template candidate. Moreover, as long as the constituent element enables subsequent similarity calculation, it may be some image feature quantity calculated from the pixel value instead of the pixel value itself of the corresponding region.

[類似領域検出部による処理]
次に、類似領域検出部12e(図1参照)による処理について説明する。類似領域検出部12eは、テンプレート決定部12dによって決定されたテンプレート画像と類似する、物品領域内の一つ以上の領域(類似領域)を検出する。類似領域検出部12eは、画素値、又は、該画素値に基づいて計算される画像特徴量から計算されるテンプレート画像との類似度が、所定の閾値(第2閾値の一例)以上となる領域を、類似領域として抽出(検出)する。
[Processing by similar region detection unit]
Next, processing by the similar region detection unit 12e (see FIG. 1) will be described. The similar region detection unit 12e detects one or more regions (similar regions) within the article region that are similar to the template image determined by the template determination unit 12d. The similar area detection unit 12e detects an area where the similarity with the template image calculated from the pixel value or the image feature amount calculated based on the pixel value is equal to or greater than a predetermined threshold (an example of the second threshold). is extracted (detected) as a similar region.

類似領域検出部12eは、テンプレート画像及び該テンプレート画像を含む物品領域を2次元空間上で、類似領域を任意の角度分回転して得られる画像群を、物品領域内で走査することにより取得する。ここでの回転角度は、物品面の形状に応じて任意の角度を選択することができる。 The similar area detection unit 12e acquires a group of images obtained by rotating the similar area by an arbitrary angle in a two-dimensional space, by scanning the template image and the article area including the template image within the article area. . Any rotation angle can be selected according to the shape of the surface of the article.

例えば、図2Aに示した物品領域21や図2Bに示した物品領域22においては、テンプレート画像を回転される角度が、90度、180度、270度の3種類あれば、物品領域21又は22内におけるテンプレート画像との類似領域を検出可能である。また、図2Cに示した物品領域23においては、テンプレート画像を回転される角度が、60度、120度、180度、240度、300度の5種類あれば、物品領域23内におけるテンプレート画像との類似領域を検出可能である。 For example, in the article area 21 shown in FIG. 2A and the article area 22 shown in FIG. It is possible to detect a similar region with the template image in the . In addition, in the article area 23 shown in FIG. 2C, if the template image is rotated by five angles of 60 degrees, 120 degrees, 180 degrees, 240 degrees, and 300 degrees, the template image in the article area 23 and similar regions can be detected.

なお、類似領域検出部12eが抽出した類似領域の中にも、複数の物品面にまたがる領域が含まれる場合がある。そこで、本実施形態では、類似領域検出部12eは、類似領域の検出精度をより向上させる目的で、各類似領域を拡大して得られる領域の情報を用いて、改めて類似度の評価を行う。この類似度の評価時に用いる閾値は、類似領域検出時において類似度を測る際に用いた閾値と異なっていても構わない。 It should be noted that the similar region extracted by the similar region detection unit 12e may also include a region spanning multiple product surfaces. Therefore, in the present embodiment, the similar region detection unit 12e again evaluates similarity using region information obtained by enlarging each similar region for the purpose of further improving similar region detection accuracy. The threshold used when evaluating the degree of similarity may be different from the threshold used when measuring the degree of similarity when detecting a similar region.

図8に、二つの星形模様と二本の直線模様とを有する物品251が3つ密着して整列された物品領域25を示す。図8の左側において、テンプレート画像Tp11は実線の矩形枠により示され、テンプレート候補Tc21~Tc25は、一点鎖線の矩形枠によって示される。 FIG. 8 shows an article area 25 in which three articles 251 having two star patterns and two linear patterns are closely aligned. On the left side of FIG. 8, the template image Tp11 is indicated by a solid-line rectangular frame, and the template candidates Tc21 to Tc25 are indicated by dash-dotted rectangular frames.

テンプレート画像Tp11は、物品領域25の最近接角Cc21との距離D21が最も短く、かつ、複数の物品面をまたがない領域であるため、テンプレート決定部12dによってテンプレート画像に決定された。 The template image Tp11 has the shortest distance D21 to the closest angle Cc21 of the article area 25, and is an area that does not straddle a plurality of article surfaces, and thus is determined as the template image by the template determination unit 12d.

図8の中央には、テンプレート画像Tp11を用いて抽出された類似領域Fs11~Fs15が、実線の矩形枠によって示される。しかしながら、図8の中央に示す例においては、物品領域25Aに含まれる3つの物品面(物品251の物品面)のそれぞれに、類似領域が二つずつ含まれてしまっている。このような類似領域に基づいて物品面の位置が計算された場合、物品の境界が誤認識されてしまう。 In the center of FIG. 8, similar regions Fs11 to Fs15 extracted using the template image Tp11 are indicated by solid-line rectangular frames. However, in the example shown in the center of FIG. 8, each of the three article surfaces (the article surface of the article 251) included in the article area 25A includes two similar areas. If the position of the surface of the article is calculated based on such similar regions, the boundary of the article will be erroneously recognized.

図8の右側には、類似領域検出部12eが、各類似領域に対応するその領域の一部の情報を用いて、改めて類似度の評価を行った後における、物品領域25Bの例を示す。図8の右側に示す例では、類似領域検出部12eは、まず、類似領域Fs11~Fs16のうち、物品領域25の最近接角Cc12からの距離D22(図8中央)が最小となる類似領域Fs11に着目し、該類似領域Fs11を最近接角Cc12の方向に拡大することにより、類似領域Fs11′(拡大類似領域の一例)を得る。 The right side of FIG. 8 shows an example of an article region 25B after the similarity region detection unit 12e again evaluates the degree of similarity using partial information corresponding to each similarity region. In the example shown on the right side of FIG. 8, the similar region detection unit 12e first detects the similar region Fs11, among the similar regions Fs11 to Fs16, where the distance D22 (the center of FIG. 8) from the closest angle Cc12 of the article region 25 is the smallest. , and by expanding the similar region Fs11 in the direction of the closest angle Cc12, a similar region Fs11' (an example of an enlarged similar region) is obtained.

また、類似領域検出部12eは、その他の類似領域Fs12~Fs16においても、同様の拡大を行うことにより、類似領域Fs12′~Fs16′(拡大類似領域の一例)を得る。その他の類似領域Fs12~Fs16の拡大は、テンプレート画像を得るために施した回転の角度を考慮して行われる必要がある。そして、類似領域検出部12eは、類似領域Fs11の拡大領域Fs11′(第1拡大領域の一例)と、類似領域Fs12′~Fs16′との類似度を計算する。 The similar region detection unit 12e also enlarges the other similar regions Fs12 to Fs16 in the same manner to obtain similar regions Fs12' to Fs16' (an example of enlarged similar regions). Enlargement of other similar regions Fs12 to Fs16 must be performed in consideration of the angle of rotation applied to obtain the template image. Then, the similar region detection unit 12e calculates the degree of similarity between the enlarged region Fs11' (an example of the first enlarged region) of the similar region Fs11 and the similar regions Fs12' to Fs16'.

類似領域Fs12′、Fs14′及びFs16′は、物品面内に直線模様を含まないため、物品面内に直線模様を含む類似領域Fs11′との類似度は低くなる。類似領域検出部12eは、このような、類似領域Fs11′との類似度が所定の閾値(第4閾値の一例)未満となる類似領域を、類似領域から外す、すなわち、破棄する。図8の右側において、破棄された類似領域Fs12′、Fs14′及びFs16′は破線の矩形枠により示され、破棄されていない類似領域Fs13′及びFs15′は実線の矩形枠により示される。 Since similar areas Fs12', Fs14' and Fs16' do not include a linear pattern in the article plane, the degree of similarity with similar area Fs11' including a linear pattern in the article plane is low. The similar region detection unit 12e excludes, that is, discards, such a similar region whose degree of similarity with the similar region Fs11′ is less than a predetermined threshold value (an example of a fourth threshold value) from the similar region. On the right side of FIG. 8, the discarded similar regions Fs12', Fs14' and Fs16' are indicated by dashed rectangular frames, and the non-discarded similar regions Fs13' and Fs15' are indicated by solid rectangular frames.

類似領域検出部12eによって、このような類似領域の再評価が行われることにより、一つの物品面に属した類似領域Fs13′及びFs15′のみが、類似領域として扱われるようになる。 Such re-evaluation of similar regions by the similar region detection unit 12e allows only the similar regions Fs13' and Fs15' belonging to one article surface to be treated as similar regions.

[類似領域評価部による処理]
次に、類似領域評価部12f(図1参照)による処理について、図9を参照して説明する。図9は、類似領域評価部12fによる処理の概要を示す図である。
[Processing by similar region evaluation unit]
Next, processing by the similar region evaluation unit 12f (see FIG. 1) will be described with reference to FIG. FIG. 9 is a diagram showing an outline of processing by the similar region evaluation unit 12f.

類似領域評価部12fは、類似領域評価部12fによって抽出された類似領域の中で、物品領域の最近接角との距離が最小となる類似領域を対象として、その類似領域の最近接角との間の相対的位置関係を計算する。 Among the similar regions extracted by the similar region evaluation unit 12f, the similar region evaluation unit 12f targets the similar region having the smallest distance to the nearest angle of the product region, and evaluates the distance to the nearest angle of the similar region. Calculate the relative positional relationship between

ここでいう相対的位置関係は、例えば、着目する類似領域の所定の点とその物品領域最近接角との間の変位を表す2次元ベクトルによって示される。この2次元ベクトルを用いることによって、着目する類似領域を含む物品面の中のどこにその類似領域が位置しているかを特定することができる。 The relative positional relationship referred to here is indicated by, for example, a two-dimensional vector representing the displacement between a predetermined point of the similar area of interest and the closest angle of the article area. By using this two-dimensional vector, it is possible to specify where the similar area is located in the article plane containing the similar area of interest.

また、類似領域評価部12fは、物品領域の最近接角を求める際に選択する物品領域の角を、物品領域の角の最小角度からの差分が所定の閾値未満となる角度とすることにより、選択される角を、単一の物品によって占められる角に限定することができる。 Further, the similar area evaluation unit 12f selects the angle of the article area selected when obtaining the nearest angle of the article area to be an angle at which the difference from the minimum angle of the corner of the article area is less than a predetermined threshold. The corners selected can be limited to corners occupied by a single article.

上述したように、類似領域評価部12fは、最近接角との間の相対的位置関係を計算する対象として、テンプレート画像に対応する類似領域ではなく、物品領域の最近接角との距離が最小となる類似領域を選択する。これは、テンプレート候補の選択条件が追加されたりしたこと等が要因となり、テンプレート画像が、物品領域の角を示す物品面に含まれないテンプレート候補から生成されてしまった場合にも、適切に物品面位置を計算できるようにするためである。 As described above, the similar region evaluation unit 12f selects the article region, not the similar region corresponding to the template image, as the object for calculating the relative positional relationship with the closest angle, and the distance from the closest angle to the article region is the smallest. Select a similar region such that This is due to factors such as the addition of template candidate selection conditions, and even if the template image is generated from a template candidate that is not included in the article surface that indicates the corner of the article area, the article can be properly displayed. This is so that the surface position can be calculated.

図9に示す物品領域21においては、物品領域の最近接角との距離が最小となる類似領域Fs1は実線の矩形枠によって示され、それ以外の類似領域Fs2~Fs6は一点鎖線の矩形枠によって表されている。 In the product region 21 shown in FIG. 9, the similar region Fs1 having the smallest distance to the nearest angle of the product region is indicated by a rectangular frame with solid lines, and the other similar regions Fs2 to Fs6 are indicated by rectangular frames with dashed-dotted lines. is represented.

また、図9には、物品領域の最近接角からの距離が最小である類似領域Fs1と、その最近接角Cc1との間の相対的位置関係を表す2次元変位ベクトルR1が、実線の矢印によって表されている。この2次元変位ベクトルR1を各類似領域にもあてはめることにより、類似領域評価部12fは、各類似領域に対応する物品面の角の位置を計算することができる。つまり、各類似領域の端部から、2次元変位ベクトルによって示される距離だけ離れた位置にある角を、該類似領域に対応する物品面の角(以下、「物品角」とも称する)に特定することができる。物品角の位置は、図9においては黒丸で示される。 Further, in FIG. 9, a two-dimensional displacement vector R1 representing the relative positional relationship between the similar region Fs1 having the shortest distance from the closest angle of the article region and its closest angle Cc1 is indicated by a solid arrow. is represented by By applying this two-dimensional displacement vector R1 to each similar region, the similar region evaluation unit 12f can calculate the position of the corner of the article surface corresponding to each similar region. That is, the corner located at a distance indicated by the two-dimensional displacement vector from the end of each similar region is specified as the corner of the article surface corresponding to the similar region (hereinafter also referred to as "article angle"). be able to. The positions of the article corners are indicated by black circles in FIG.

[物品面情報取得部による処理]
次に、図10~図13を参照して、物品面情報取得部12gによる処理について説明する。図10~図13は、物品面情報取得部12gによる処理の概要を示す図である。
[Processing by article surface information acquisition unit]
Next, referring to FIGS. 10 to 13, processing by the article surface information acquisition section 12g will be described. 10 to 13 are diagrams showing an overview of the processing by the article surface information acquisition section 12g.

物品面情報取得部12gは、類似領域評価部12fによって計算された各類似領域における物品角との相対的位置関係と、各類似領域との情報に基づいて、物品領域内における一つ以上の物品面の位置及びサイズを計算し、物品面情報として取得する。 The article surface information acquisition unit 12g identifies one or more articles in the article area based on the relative positional relationship between the article angle in each similar area calculated by the similar area evaluation unit 12f and the information on each similar area. Calculate the position and size of the surface and acquire it as article surface information.

具体的には、物品面情報取得部12gは、類似領域評価部12fで取得された物品角の情報に基づいて、物品面の位置及びサイズを計算する。物品面の位置及びサイズは、物品領域の多角形形状の情報と、物品面の角に特定された角が、物品領域の角のうちのどの角に対応するかの情報と、に基づいて、多角形形状を相似拡大縮小することにより求めることができる。物品面の形状は、物品角の頂点からのびる2辺の長さ(の比)によって規定される。 Specifically, the article surface information acquisition unit 12g calculates the position and size of the article surface based on the information on the article angle acquired by the similar area evaluation unit 12f. The position and size of the article surface are determined based on information on the polygonal shape of the article area and information on which of the corners of the article area the specified corner of the article surface corresponds to, It can be obtained by similar scaling of the polygonal shape. The shape of the article surface is defined by (the ratio of) the lengths of two sides extending from the vertex of the article angle.

具体的には、物品面情報取得部12gは、まず、物品角同士の距離、及び、各物品角の頂点から物品領域の角までの距離に基づいて、物品角の頂点からのびる2辺の長さの候補を決定する。そして、決定した候補の長さを初期値として、2辺の長さを以下(1)~(3)等の条件を満たす長さに調整する。
(1)物品同士の重なりを生じさせない長さ、又は、物品同士が重なる部分の面積が所定の閾値以下となる長さ
(2)物品領域の外にはみ出さない長さ、又は、物品領域からはみ出す部分の長さが所定の閾値以下となる長さ
(3)物品角の頂点からのびる2辺の長さによって特定される各物品面が物品領域に占める面積を、最大にすることが可能な長さ
Specifically, based on the distance between the article corners and the distance from the vertex of each article angle to the corner of the article region, the article surface information acquisition unit 12g first calculates the length of two sides extending from the vertex of the article angle. determine the candidates for Then, using the determined candidate length as an initial value, the length of the two sides is adjusted to a length that satisfies the following conditions (1) to (3).
(1) A length that does not cause overlapping of articles, or a length that makes the area of the overlapping portion of articles smaller than a predetermined threshold (2) A length that does not protrude outside the article area, or is within the article area (3) It is possible to maximize the area occupied by each article face specified by the length of two sides extending from the vertex of the article angle in the article area. length

なお、物品面情報取得部12gは、これらのうちの一つの条件を用いて物品角の頂点からのびる2辺の長さを決定してもよく、一つ以上の条件を組み合わせてもよい。また、物品面の形状に関する情報が事前に与えられる場合には、その情報を用いることにより、物品面のサイズ(物品角の頂点からのびる2辺の長さ)の探索時間を削減することができる。 The article surface information acquisition unit 12g may use one of these conditions to determine the length of two sides extending from the vertex of the article angle, or may combine one or more conditions. In addition, when information about the shape of the article surface is given in advance, it is possible to reduce the search time for the size of the article surface (the length of two sides extending from the vertex of the article angle) by using that information. .

ここで、図10を参照して、物品領域内の各物品面の位置及びサイズの特定(以下、「物品面の特定」とも称する)例について説明する。図10は、物品面情報取得部12gによる物品領域内の各物品面の特定例を示す図である。 Here, with reference to FIG. 10, an example of specifying the position and size of each article surface in the article area (hereinafter also referred to as "specifying the article surface") will be described. FIG. 10 is a diagram showing an example of identification of each article surface within an article area by the article surface information acquisition unit 12g.

なお、図10に示す例では、物品面の形状が長方形である場合の例を挙げるが、物品面の形状が平行四辺形等である場合にも、同様の処理を適用可能である。図10の最上段に示す物品領域26は、3つの物品261によって構成される。物品261は、一つの星形模様と、二本の直線模様とを有する。また、物品領域26においては、各物品面の物品角の位置が特定されており、図10において各物品角は黒丸印で示されている。また、図10において、物品角の頂点からのびる2辺の長さによって定まる物品面の形状及びサイズは、右下がりの斜線模様の領域の形状及び大きさによって示される。 In the example shown in FIG. 10, an example in which the shape of the article surface is a rectangle is given, but similar processing can also be applied when the shape of the article surface is a parallelogram or the like. The article area 26 shown at the top of FIG. 10 is composed of three articles 261 . Article 261 has one star pattern and two linear patterns. Also, in the article area 26, the positions of the article corners of each article surface are specified, and in FIG. 10, each article corner is indicated by a black circle mark. Also, in FIG. 10, the shape and size of the surface of the article determined by the length of two sides extending from the vertex of the article corner are indicated by the shape and size of the region of diagonal lines sloping downward to the right.

図10の中段の左側に示す物品領域26Aにおいては、物品角の頂点からのびる2辺のうち、長辺の長さが長すぎることによって、物品同士の重なりと、物品面の物品領域26Aからのはみだしとが生じている。 In the article area 26A shown on the left side of the middle part of FIG. 10, the longer side of the two sides extending from the vertex of the article angle is too long. Protrusion occurs.

図10の中段の右側に示す物品領域26Bにおいては、物品角の頂点からのびる2辺の長さが短すぎることにより、物品同士の重なりは生じていないが、物品領域26Bにおいて物品面が占める面積が小さくなっている。 In the article area 26B shown on the right side of the middle part of FIG. 10, the length of the two sides extending from the vertex of the article angle is too short, so the articles do not overlap each other, but the area occupied by the article surface in the article area 26B is getting smaller.

一方、図10の最下段に示す物品領域26Cにおいては、物品角の頂点からのびる2辺の長さが適切に設定されていることにより、物品面同士の重なりや、物品面の物品領域26からのはみだしなどが生じておらず、かつ、物品面が物品領域26Cに占める割合も最大となっている。 On the other hand, in the article area 26C shown at the bottom of FIG. 10, the length of the two sides extending from the vertex of the article angle is appropriately set. There is no protrusion, etc., and the ratio of the product surface to the product area 26C is maximized.

なお、物品面情報取得部12gは、画素値に基づいて計算した物品面同士の類似度の情報も用いて、物品面の探索を行ってもよい。図11は、種類の異なる物品が含まれる物品領域における物品面の特定例を示す図である。 Note that the article surface information acquisition unit 12g may also search for article surfaces using information on the degree of similarity between article surfaces calculated based on pixel values. FIG. 11 is a diagram showing an example of identifying an article surface in an article area containing articles of different types.

図11に示す物品領域27には、一つの星形模様と二本の直線模様とを含む二つの物品271と、一本の直線模様と、該一本の直線模様に直交する二本の直線模様とを含む一つの物品272と、で構成される。また、物品領域27においては、黒丸印によって示される二つの物品角が特定されているものとする。 In the article area 27 shown in FIG. 11, there are two articles 271 including one star-shaped pattern and two linear patterns, one linear pattern, and two straight lines perpendicular to the one linear pattern. and one article 272 including a pattern. Also, in the article area 27, it is assumed that two article corners indicated by black circles are specified.

二つの物品角のそれぞれからのびる2辺の長さを推定する場合において、上記(1)~(3)の条件のみを用いた場合、図11の右上に示す物品領域27Aのように、物品271の物品面が物品272にかかってしまっていても、条件をクリアしてしまう。 When estimating the length of the two sides extending from each of the two article corners, if only the above conditions (1) to (3) are used, the article 271 The condition is cleared even if the article surface of is covered with the article 272 .

ここで、特定された物品面同士の類似度が所定の閾値以上となる長さ、という条件(条件(4)とする)を追加してみる。この場合、物品角Ca11を含む物品面2711と、物品角Ca12を含む物品面2712とは、物品272にかかる部分の画素値がそれぞれ異なっているため、画素値に基づき判定された類似度は低くなる。したがって、物品面情報取得部12gは、物品面2711及び2712を構成する2辺の長さは適切でないと判断する。 Here, let us add a condition (referred to as condition (4)) that the length is such that the similarity between the identified product surfaces is equal to or greater than a predetermined threshold. In this case, the item surface 2711 including the item angle Ca11 and the item surface 2712 including the item angle Ca12 have different pixel values in the portion corresponding to the item 272. Therefore, the similarity determined based on the pixel values is low. Become. Therefore, the article surface information acquisition unit 12g determines that the lengths of the two sides forming the article surfaces 2711 and 2712 are not appropriate.

一方、上記(1)~(4)のすべての条件を満たす2辺の長さを適用した場合、図11の右下に示す物品領域27Bに示すように、物品領域2713及び2714は、それぞれ、物品271の位置及びサイズを適切に反映したものとなる。 On the other hand, when two side lengths that satisfy all the above conditions (1) to (4) are applied, as shown in the article area 27B shown in the lower right of FIG. 11, the article areas 2713 and 2714 are respectively It will be a good reflection of the position and size of the item 271 .

なお、上述した実施形態における物品認識方法のように、物品領域の最近接角と類似領域との相対的位置関係の情報を用いることなく、物品面の位置や大きさなどを計算することも可能である。しかしながら、物品領域の最近接角と類似領域との相対的位置関係の情報がなく、類似領域の位置のみが分かっている状況においては、2辺の長さに加えて、物品領域における類似領域の位置の情報も探索する必要が生ずる。つまり、物品の探索次元は「4」となってしまう。これに対して、本実施形態では、物品角の頂点からのびる2辺の長さを探索するのみでよいため、探索の次元は「2」となり、探索時間の削減が可能となる。 It is also possible to calculate the position, size, etc. of the surface of the article without using information on the relative positional relationship between the closest angle of the article area and the similar area, as in the article recognition method in the above-described embodiment. is. However, in a situation where there is no information about the relative positional relationship between the closest angle of the article area and the similar area and only the position of the similar area is known, in addition to the length of the two sides, Location information also needs to be searched. In other words, the search dimension of the article becomes "4". On the other hand, in the present embodiment, it is only necessary to search for the length of two sides extending from the vertex of the article angle, so the dimension of the search becomes "2", and the search time can be reduced.

なお、探索時間削減の観点からは、同種の物品の物品角同士、又は、類似領域同士の相対的な位置関係や、物品角の頂点から物品領域の輪郭上の点までの距離などの情報に基づいて、2辺の長さの候補値を求めることも可能である。例えば、図10に示した物品領域26においては、物品角Ca1と物品領域26の左下角との間の距離は、物品261の長辺の長さと一致している。また、物品角Ca2と物品角Ca3との間の距離は、物品261の短辺の長さ、及び、物品角Ca3と物品領域26の右下角との間の距離と一致している。つまり、同種の物品の物品角同士、又は、類似領域同士の相対的な位置関係や、物品角の頂点から物品領域の輪郭上の点までの距離などの情報も用いることにより、物品面の探索精度をより向上させることが可能となる。 From the viewpoint of reducing the search time, information such as the relative positional relationship between object corners of the same type of article or between similar areas, and the distance from the vertex of the article corner to the point on the contour of the article area. Based on this, it is also possible to obtain candidate values for the length of the two sides. For example, in the article area 26 shown in FIG. 10 , the distance between the article corner Ca1 and the lower left corner of the article area 26 matches the length of the long side of the article 261 . Also, the distance between the article angle Ca2 and the article angle Ca3 matches the length of the short side of the article 261 and the distance between the article angle Ca3 and the lower right corner of the article area 26 . In other words, by using information such as the relative positional relationship between the object corners of the same type of object or between the similar areas, and the distance from the vertex of the object angle to the point on the contour of the object area, the object surface can be searched. It is possible to further improve the accuracy.

また、隣り合う二つの物品面のそれぞれの物品角が、物品領域において対角の位置にある場合には、物品角の頂点を起点とする2辺がのびる方向は2通り存在し得る。このような場合には、上記(1)~(4)の条件をすべて満たしていても、物品面を正しく特定できていない状況が生じ得る。 Also, when the article angles of two adjacent article surfaces are diagonally opposite each other in the article area, there are two possible directions in which the two sides extend from the vertex of the article angle. In such a case, even if all of the above conditions (1) to (4) are satisfied, a situation may arise in which the article surface cannot be specified correctly.

図12は、隣り合う二つの物品面のそれぞれの物品角が、物品領域において対角の位置にある物品領域における、物品面の特定例を示す図である。図12に示す物品領域28は、一本の直線模様と一つの星形模様とを含む物品281を二つ含む。図12に示すように、物品領域28に含まれる物品281の物品角Ca21と、物品281の物品角Ca22とは、互いに対角の位置にある。 FIG. 12 is a diagram showing a specific example of an article surface in an article area in which the respective article angles of two adjacent article surfaces are at diagonal positions in the article area. The article area 28 shown in FIG. 12 includes two articles 281 including one linear pattern and one star pattern. As shown in FIG. 12, the article angle Ca21 of the article 281 included in the article area 28 and the article angle Ca22 of the article 281 are diagonal to each other.

この場合、物品角Ca21及びCa22のそれぞれからのばす2辺の方向の選択肢には、図12の中央に示す物品領域28Aのように、2辺のうちの長辺が物品領域28Aの縦方向を分割する方向と、図12の右側に示す物品領域28Bのように、長辺が物品領域28Bの横方向を分割する方向と、の二種類がある。 In this case, the options for the directions of the two sides extending from the article angles Ca21 and Ca22 include an article area 28A shown in the center of FIG. and a direction in which the long side divides the horizontal direction of the article area 28B, as in the article area 28B shown on the right side of FIG.

このようなケースにおいては、物品領域28を分断する直線模様が存在する方向を、2辺のうちの長辺が配置される方向に設定することにより、実際の2つの物品281の境界と同じ位置で、物品面2811と物品面2822とを切り分けることができる。図12の中央に示す物品領域28Aが、この例に該当する。 In such a case, by setting the direction in which the linear pattern that divides the article area 28 is the direction in which the longer side of the two sides is arranged, the actual boundary between the two articles 281 and the same position can be set. , the product surface 2811 and the product surface 2822 can be separated. An article area 28A shown in the center of FIG. 12 corresponds to this example.

図13は、物品領域における物品面の適切な特定例を示す図である。図13に示す物品領域29においては、上述した(1)~(4)の条件のいずれか又は組み合わせ、あるいはすべてを満たす長さに、物品角の頂点からのびる2辺の長さが決定されている。それゆえ、物品領域29においては、物品面同士の重なりや、物品面の物品領域29からのはみ出しが生じていない。さらに、物品領域29においては、各物品面内の模様が、物品面同士で一致しており、物品面が物品領域29のほぼ全面を覆うことができている。 FIG. 13 is a diagram showing an example of proper identification of the article surface in the article area. In the article area 29 shown in FIG. 13, the length of the two sides extending from the vertex of the article angle is determined to satisfy any one, a combination, or all of the above conditions (1) to (4). there is Therefore, in the article area 29 , the article surfaces do not overlap each other, and the article surfaces do not protrude from the article area 29 . Furthermore, in the article area 29 , the patterns within the article surfaces match each other, and the article surfaces can cover almost the entire article area 29 .

物品面情報取得部12g(図1参照)は、このようにして取得した物品領域内の各物品面の位置及びサイズの情報を、物品面情報出力部13に出力する。 The article surface information acquisition section 12g (see FIG. 1) outputs the position and size information of each article surface in the article area thus acquired to the article surface information output section 13. FIG.

[物品認識装置による物品認識方法]
次に、図14を参照して、本実施形態に係る物品認識装置10(図1参照)による物品認識方法について説明する。図14は、物品認識装置10による物品認識処理の手順の例を示すフローチャートである。
[Item Recognition Method by Article Recognition Apparatus]
Next, with reference to FIG. 14, an article recognition method by the article recognition device 10 (see FIG. 1) according to this embodiment will be described. FIG. 14 is a flow chart showing an example of the procedure of article recognition processing by the article recognition device 10. As shown in FIG.

まず、物品認識装置10の模様量計算部12aは、物品領域受付部11から物品領域の情報を受け取ると、物品領域における模様量の分布を計算する(ステップS1)。上述したように、模様量とは、所定の領域の模様度合いを表す指標であり、物品領域を構成する2次元画素値から計算される。 First, the pattern amount calculation section 12a of the article recognition apparatus 10 receives the information of the article area from the article area reception section 11, and calculates the pattern amount distribution in the article area (step S1). As described above, the pattern amount is an index representing the degree of pattern in a given area, and is calculated from the two-dimensional pixel values forming the article area.

次いで、テンプレート候補抽出部12bは、ステップS1で計算された模様量の分布に基づいて、模様量(又は模様量の密度)が所定の閾値以上となる物品領域内の一つ以上の部分領域を、テンプレート候補として抽出する(ステップS2)。 Next, the template candidate extracting unit 12b selects one or more partial regions in the article region having a pattern quantity (or pattern quantity density) equal to or greater than a predetermined threshold based on the pattern quantity distribution calculated in step S1. , are extracted as template candidates (step S2).

次いで、テンプレート候補評価部12cは、ステップS2で抽出された一つ以上のテンプレート候補それぞれに対して、最近接角との間の距離を計算する(ステップS3)。そして、テンプレート候補と、該テンプレート候補に対応する距離(最近接角との距離)の情報との対応情報が、テンプレート候補情報保持部12hに保存される。 Next, the template candidate evaluation unit 12c calculates the distance between each of the one or more template candidates extracted in step S2 and the nearest angle (step S3). Correspondence information between a template candidate and information on the distance (distance to the closest angle) corresponding to the template candidate is stored in the template candidate information holding unit 12h.

次いで、テンプレート決定部12dは、テンプレート候補情報保持部12hを参照して、未選択のテンプレート候補が一つ以上あるかどうかを判定する(ステップS4)。ステップS4で、未選択のテンプレート候補はないと判定された場合(ステップS4がNO判定の場合)、物品認識装置10による物品認識処理は終了する。なお、テンプレート決定部12dは、未選択のテンプレート候補の有無に関わらず、演算時間の制約等の理由によって以降の処理を行うことができないと判定した場合にも、ここで処理を終了しても構わない。 Next, the template determining unit 12d refers to the template candidate information holding unit 12h and determines whether or not there is one or more unselected template candidates (step S4). If it is determined in step S4 that there is no unselected template candidate (NO in step S4), the article recognition process by the article recognition device 10 ends. Note that even if the template determination unit 12d determines that subsequent processing cannot be performed due to reasons such as computation time constraints, regardless of the presence or absence of unselected template candidates, the processing may end here. I do not care.

一方、ステップS4で、未選択のテンプレート候補があると判定された場合(ステップS4がYES判定の場合)、テンプレート決定部12dは、ステップS3で計算された最近接角との距離が最小であるテンプレート候補を選択し、該テンプレート候補に基づいてテンプレート画像を生成する(ステップS5)。 On the other hand, when it is determined in step S4 that there is an unselected template candidate (when step S4 determines YES), the template determination unit 12d determines that the distance from the nearest angle calculated in step S3 is the minimum. A template candidate is selected, and a template image is generated based on the template candidate (step S5).

次いで、テンプレート決定部12dは、ステップS5で生成されたテンプレート画像が所定の条件を満たすかどうかを判定する(ステップS6)。所定の条件には、例えば、テンプレート画像の面積が、不図示のピックアップロボットが部品を吸着又は把持する場合における、吸着/把持部分の面積以上である、等が考えられる。ステップS6で、テンプレート画像は所定の条件を満たしていないと判定された場合、テンプレート決定部12dは、ステップS4に戻って処理を行う。 Next, the template determination unit 12d determines whether the template image generated in step S5 satisfies a predetermined condition (step S6). The predetermined condition may be, for example, that the area of the template image is greater than or equal to the area of the pickup/gripping portion when a pick-up robot (not shown) picks up or grips the component. When it is determined in step S6 that the template image does not satisfy the predetermined condition, the template determination unit 12d returns to step S4 and performs the process.

一方、ステップS6で、テンプレート画像は所定の条件を満たすと判定された場合(ステップS6がYES判定の場合)、類似領域検出部12eは、テンプレート画像と類似する物品領域内における一つ以上の領域を、類似領域として検出する(ステップS7)。上述したように、類似領域検出部12eは、画素値又は画素値に基づいて計算される画像特徴量から計算されるテンプレート画像との類似度が、所定の閾値以上となる領域を、類似領域として検出する。このとき、類似領域検出部12eは、テンプレート画像及び物品領域を2次元空間上で任意の角度分回転して得られる画像群も対象として、テンプレート画像との類似度が高い領域を探索する。 On the other hand, when it is determined in step S6 that the template image satisfies the predetermined condition (when step S6 determines YES), the similar region detection unit 12e detects one or more regions in the article region similar to the template image. is detected as a similar region (step S7). As described above, the similar region detection unit 12e designates regions where the degree of similarity with the template image calculated from the pixel values or the image feature amount calculated based on the pixel values is equal to or greater than a predetermined threshold as similar regions. To detect. At this time, the similar region detection unit 12e searches for a region having a high degree of similarity with the template image, including a group of images obtained by rotating the template image and the article region by an arbitrary angle in the two-dimensional space.

また、類似領域検出部12eが検出する類似領域の中には、ステップS5でテンプレート画像を生成するために選択されたテンプレート候補に対応する領域が少なくとも含まれる。 Further, the similar regions detected by the similar region detection unit 12e include at least regions corresponding to the template candidates selected for generating the template image in step S5.

なお、類似領域検出部12eは、上述したように、類似領域の検出後に、物品領域の最近接角からの距離が最小となる類似領域を最近接角の方向に拡大した領域の情報を用いて、その他の類似領域との類似度を再評価してもよい。そして、類似度が低い領域を、類似領域から外してもよい。 Note that, as described above, after detecting the similar region, the similar region detection unit 12e uses the information of the region obtained by enlarging the similar region having the smallest distance from the nearest angle of the article region in the direction of the nearest angle. , the similarity with other similar regions may be re-evaluated. Then, a region with a low degree of similarity may be excluded from the similar regions.

例えば、物品領域受付部11(図1参照)が受け付けた物品領域の情報にノイズが含まれていた場合、テンプレート候補との距離が近くない物品領域の角が最近接角として誤認識されてしまう状況も生じ得る。このような場合、最近接角との距離が最小であるテンプレート候補が選択されるべきところ、この条件を満たさないテンプレート候補が誤って選択されてしまうことが起こり得る。 For example, if noise is included in the information on the article area received by the article area reception unit 11 (see FIG. 1), the corner of the article area that is not close to the template candidate will be erroneously recognized as the closest angle. Situations can arise. In such a case, a template candidate that does not satisfy this condition may be erroneously selected when the template candidate with the smallest distance to the nearest angle should be selected.

類似領域検出部12eによって、上記再評価が行われることにより、期待されるテンプレート候補とは異なるテンプレート候補が選択された場合にも、誤選択されたテンプレート候補に基づくテンプレート画像との類似度の情報を用いて誤って検出された類似領域を、破棄することができる。 As a result of the re-evaluation performed by the similar region detection unit 12e, even when a template candidate different from the expected template candidate is selected, information on the degree of similarity with the template image based on the erroneously selected template candidate is obtained. can be discarded.

次いで、類似領域評価部12fは、ステップS7で得られた一つ以上の類似領域の中で、物品領域の最近接角との距離が最小となる類似領域を対象として、その物品領域の最近接角との間の相対的位置関係を計算する(ステップS8)。相対的位置関係は、上述したように、着目する類似領域を含む物品領域の中のどこにその類似領域が位置しているかを特定するために用いられる情報であり、例えば、着目する類似領域の所定の点と、その類似領域の最近接角との間の変位を表す2次元ベクトル等によって示される。 Next, among the one or more similar regions obtained in step S7, the similar region evaluation unit 12f selects, as a target, the similar region having the smallest distance from the nearest angle of the article region. Calculate the relative positional relationship between the corners (step S8). As described above, the relative positional relationship is information used to specify where the similar region is located in the article region including the similar region of interest. , and the nearest angle of the similar region, such as a two-dimensional vector.

ステップS8で、類似領域評価部12fが、テンプレート画像に対応する類似領域ではなく、物品領域最近接角からの距離が小さい類似領域に着目する理由は、テンプレート決定部12dによって決定されたテンプレート候補が適切でない場合に対応するためである。このような処理が行われることにより、例えば、物品領域を構成する角とは異なる角を含むテンプレート候補が、テンプレート決定部12dによって誤って選択されていた場合にも、算出される相対的位置関係を、物品領域を構成する角に属する最近接角との間の情報とすることができる。 The reason why the similar region evaluation unit 12f in step S8 focuses on a similar region having a small distance from the nearest angle of the article region rather than a similar region corresponding to the template image is that the template candidate determined by the template determination unit 12d is This is to deal with cases where it is inappropriate. By performing such processing, for example, even if a template candidate including a corner different from the corner forming the article region is erroneously selected by the template determination unit 12d, the calculated relative positional relationship can be information between the closest angle belonging to the corners forming the article area.

また、類似領域評価部12fは、ここで、類似領域との間の相対的位置関係の算出対象とする最近接角の選択対象から、物品領域を構成する角の最小角度との差分が所定の閾値以上となる角を外す処理を行ってもよい。このような処理が行われることにより、複数の物品によって占められる角が、最近接角として誤って選択されてしまうことを防ぐことができる。 Further, the similar region evaluation unit 12f selects the closest angle to be used for calculation of the relative positional relationship with the similar region, and the difference between the minimum angle of the corners forming the article region is a predetermined value. A process of removing corners equal to or greater than a threshold may be performed. By performing such processing, it is possible to prevent a corner occupied by multiple articles from being erroneously selected as the closest angle.

次いで、物品面情報取得部12gは、ステップS8で得られた相対的位置関係、及び、ステップS7で得られた一つ以上の類似領域の情報に基づいて、物品領域内の一つ以上の物品面の情報(位置及びサイズ等)を取得する(ステップS9)。物品面情報取得部12gは、相対的位置関係を利用することによって、一つ以上の類似領域それぞれに対して、その領域を含む物品面の角の位置を特定することができる。そして、物品面情報取得部12gは、類似領域を含む物品面の多角形形状を相似拡大縮小することにより、物品面のサイズを計算(探索)する。 Next, the article surface information acquisition unit 12g acquires one or more articles in the article area based on the relative positional relationship obtained in step S8 and information on one or more similar areas obtained in step S7. The surface information (position, size, etc.) is obtained (step S9). By using the relative positional relationship, the article surface information acquisition unit 12g can identify the position of the corner of the article surface including the area for each of one or more similar areas. Then, the article surface information acquisition unit 12g calculates (searches) the size of the article surface by similarly scaling the polygonal shape of the article surface including the similar area.

次いで、物品面情報取得部12gは、ステップS9で計算された物品面の情報が、所定の条件を満たすか否かを判定する(ステップS10)。所定の条件は、上述した(1)~(4)の条件である。物品面情報取得部12gは、ステップS9で計算された物品面の情報(物品角の頂点からのびる2辺の長さ(又は比))が、(1)~(4)の条件のいずれか又は組み合わせ、あるいは、すべてを満たすか否かを判定する。 Next, the product surface information acquisition unit 12g determines whether the product surface information calculated in step S9 satisfies a predetermined condition (step S10). The predetermined conditions are the conditions (1) to (4) described above. The article surface information acquisition unit 12g determines that the information on the article surface calculated in step S9 (the length (or ratio) of two sides extending from the vertex of the article angle) satisfies any of the conditions (1) to (4) or It is determined whether the combination or all are satisfied.

なお、物品面情報取得部12gは、ステップS10の判定の代わりに、演算時間の制約に応じた判定を行っても構わない。すなわち、物品面情報取得部12gは、物品面の情報が所定の条件を満たすか否かに関わらず、演算時間の制約等の理由によって以降の処理を行うことができないと判定した場合にも、ここで処理を終了しても構わない。 It should be noted that the article surface information acquisition unit 12g may make a judgment according to the limitation of the calculation time instead of making the judgment in step S10. That is, regardless of whether or not the information on the article side satisfies the predetermined condition, the article side information acquisition section 12g, even if it determines that subsequent processing cannot be performed due to reasons such as restrictions on the calculation time, The processing may end here.

ステップS10で、物品面の情報は所定の条件を満たさないと判定された場合(ステップS10がNO判定の場合)、物品面情報取得部12gは、ステップS5で選択されたテンプレート候補をテンプレート候補情報保持部12hから除外した上で、ステップS4に戻って処理を行う。つまり、次の未選択のテンプレート候補があるか否かを判定する。 If it is determined in step S10 that the information on the article side does not satisfy the predetermined condition (NO determination in step S10), the article side information acquisition section 12g converts the template candidate selected in step S5 into template candidate information. After excluding it from the holding unit 12h, the process returns to step S4. That is, it is determined whether or not there is a next unselected template candidate.

一方、ステップS10で、物品面の情報は所定の条件を満たすと判定された場合(ステップS10がYES判定の場合)、物品面情報取得部12gは、ステップS10で条件を満たした物品面の情報を、物品面情報出力部13を介して、不図示のピッキングロボット等の外部に出力する(ステップS11)。ステップS11の処理後、物品認識装置10による物品認識処理は終了する。 On the other hand, when it is determined in step S10 that the information on the article side satisfies the predetermined condition (when the determination in step S10 is YES), the article side information acquiring section 12g acquires the information on the article side which satisfies the condition in step S10. is output to the outside such as a picking robot (not shown) through the article surface information output unit 13 (step S11). After the process of step S11, the article recognition process by the article recognition device 10 ends.

上述した物品認識装置10は、物品領域受付部11と、テンプレート決定部12dと、物品面情報取得部12gと、を含む。物品領域受付部11には、物品領域の情報が入力される。物品領域は、互いに密着して配列された複数の物品の整列面と対応する画像を含む2次元画像において画素が連続して存在する領域を多角形近似することによって得られる領域である。 The article recognition device 10 described above includes an article area reception section 11, a template determination section 12d, and an article surface information acquisition section 12g. Information on the article area is input to the article area reception unit 11 . The article area is an area obtained by polygonal approximation of an area in which pixels are continuously present in a two-dimensional image including images corresponding to alignment surfaces of a plurality of articles arranged in close contact with each other.

テンプレート決定部12dは、所定値以上の画素が密集した模様領域の模様量が所定の閾値(第1閾値)以上であり、かつ、物品領域を構成する角のうちの、自身の領域との最近接角との距離が最小である領域の情報を用いて、テンプレート画像を生成する。物品面情報取得部12gは、テンプレート画像との類似度が所定の閾値(第2閾値)以上である一つ以上の類似領域の情報を用いて、物品領域における物品の面の位置及びサイズを含む物品面情報を取得して出力する。 The template determination unit 12d determines that the pattern amount of the pattern region in which pixels of a predetermined value or more are densely packed is a predetermined threshold value (first threshold value) or more, and that the corners forming the article region are closest to the own region. A template image is generated using the information of the area with the smallest distance to the tangent angle. The article surface information acquisition unit 12g uses information of one or more similar regions whose degree of similarity to the template image is equal to or greater than a predetermined threshold (second threshold) to obtain the position and size of the surface of the article in the article region. Acquire and output product surface information.

したがって、本実施形態に係る物品認識装置10は、認識対象物品の模様やサイズなどの情報が事前に用意されていなくても、物品領域から得られる情報に基づいて生成したテンプレート画像及び類似領域の情報に基づいて、密接して整列された複数の物品の各物品を適切に認識できる。 Therefore, the article recognition apparatus 10 according to the present embodiment can generate a template image and a similar area based on information obtained from the article area even if information such as the pattern and size of the article to be recognized is not prepared in advance. Based on the information, each item of closely aligned multiple items can be appropriately recognized.

また、本実施形態の物品認識装置10のテンプレート候補抽出部12bは、模様領域の模様量が所定の閾値以上であり、かつ、物品領域を構成する角のうちの、自身の領域との最近接角との距離が最小である領域の情報を用いて、物品領域の中から、テンプレート画像生成用のテンプレート候補を抽出する。 Further, the template candidate extraction unit 12b of the article recognition apparatus 10 of the present embodiment determines that the pattern amount of the pattern area is equal to or greater than a predetermined threshold value and that the corners forming the article area are closest to the own area. Template candidates for template image generation are extracted from the article area using the information on the area with the smallest distance from the corner.

このような条件を満たす領域は、単一の物品の面に属する領域である可能性が高い。つまり、本実施形態では、単一の物品の面に属する領域に対応していると想定されるテンプレート候補に基づいて、整列面を構成する各物品の物品面情報を計算するため、本実施形態によれば、整列面を構成する各物品面の情報を適切に取得することが可能となる。 Areas satisfying such conditions are likely to belong to a single article face. In other words, in this embodiment, since the article surface information of each article forming the alignment surface is calculated based on the template candidate assumed to correspond to the area belonging to the surface of a single article, the present embodiment According to this, it is possible to appropriately acquire information on each article surface that constitutes the alignment surface.

ここで、本実施形態に係る物品認識装置10に対して、所定の条件を満たす情報が入力された場合における、出力内容の特徴について説明する。本実施形態に係る物品認識装置10が認識可能な物品は、同一の物品の面内において他の模様と重複しない特徴的な模様を有し、該模様のある領域や、該模様とは種類の異なる模様が存在する領域以外の領域の画素値が、一定の値である物品である。 Here, characteristics of output contents when information satisfying a predetermined condition is input to the article recognition apparatus 10 according to the present embodiment will be described. An article that can be recognized by the article recognition apparatus 10 according to the present embodiment has a characteristic pattern that does not overlap with other patterns in the plane of the same article. This is an article in which pixel values in areas other than areas where different patterns are present are constant.

また、物品面の形状は、多角形を構成するいずれかの角、及び、その角からのびる2辺の長さの比が与えられた場合に特定が可能な形状である必要がある。本実施形態では、このような物品が互いに密着して整列された整列面の撮影画像が、物品認識装置10に入力される。しかしながら、物品認識装置10に入力されるのは、実際の整列面の撮影画像ではなく、疑似的に生成された画像であってもよい。 In addition, the shape of the surface of the article must be a shape that can be specified when one of the corners forming a polygon and the ratio of the lengths of two sides extending from that corner are given. In the present embodiment, a photographed image of an alignment surface in which such articles are aligned in close contact with each other is input to the article recognition device 10 . However, what is input to the article recognition device 10 may be a pseudo-generated image instead of the actual photographed image of the alignment surface.

本実施形態に係る物品認識装置10(の物品面情報出力部13)から出力される物品面の情報には、物品領域の角を含んだ物品面の位置及びサイズの情報が少なくとも含まれる。本実施形態に係る物品認識装置10は、物品領域内の特徴的な模様を含む領域の中における、物品領域の最近接角からの距離が最小となる領域は、物品領域を構成するいずれかの角を含んでいることを想定して、物品認識処理を行っている。 The article surface information output from (the article surface information output unit 13 of) the article recognition apparatus 10 according to the present embodiment includes at least information on the position and size of the article surface including the corners of the article area. In the article recognition apparatus 10 according to the present embodiment, the area having the smallest distance from the nearest angle of the article area, among the areas including the characteristic pattern in the article area, is any one of the Article recognition processing is performed on the assumption that corners are included.

したがって、物品認識装置10から出力される物品面の情報には、物品領域の角を含む物品面の位置(及びサイズ)の情報は必ず含まれる。それゆえ、物品を認識する他の装置から出力される情報に、物品領域の角を含む物品面の位置(及びサイズ)の情報が含まれているか否かを調べることによって、該装置が、本実施形態に係る物品認識装置10と同様の物品認識処理を行っているか否かを判断することができる。 Therefore, the information on the article surface output from the article recognition apparatus 10 always includes information on the position (and size) of the article surface including the corners of the article area. Therefore, by checking whether or not the information output from another device that recognizes an article contains information on the position (and size) of the article surface, including the corners of the article area, the apparatus can It can be determined whether or not an article recognition process similar to that of the article recognition device 10 according to the embodiment is being performed.

図15は、物品認識装置10から出力される物品面の情報の例を示す図である。図15Aに示す物品領域30は、一つの星形模様を有する物品301が4つ敷き詰められて構成される。物品領域30においては、星形模様の領域以外の領域における画素値は、一定であるものとする。つまり、物品の境界部分の画素値も、境界以外の領域における画素値と同一であるとする。このような特徴を有する物品領域は、単載パレットを対象としたデパレタイズ処理の実行時に現れ得る。 FIG. 15 is a diagram showing an example of information on the surface of an article output from the article recognition device 10. As shown in FIG. An article area 30 shown in FIG. 15A is configured by laying four articles 301 having one star pattern. In the product area 30, pixel values in areas other than the star pattern area are assumed to be constant. In other words, it is assumed that the pixel values of the boundary portion of the article are the same as the pixel values of the regions other than the boundary. Article areas having such characteristics can appear when performing a depalletizing process for a single pallet.

このような物品領域30の情報が入力された場合、本実施形態に係る物品認識装置10から出力される情報は、図15の右上に示した物品領域30Aに含まれる物品面3011A~3014Aの情報、又は、図15の右下に示した物品領域30Bに含まれる物品面3011B~3014Bの情報等となる。そして、物品領域30Aにおいては、物品面2011A~3014Aのいずれもが物品領域30の角のいずれかを含んでおり、物品領域30Bにおいては、物品面3012Bが物品領域30Bの角を含んでいる。 When the information of the article area 30 is input, the information output from the article recognition apparatus 10 according to the present embodiment is the information of the article surfaces 3011A to 3014A included in the article area 30A shown in the upper right of FIG. , or the information of the article surfaces 3011B to 3014B included in the article area 30B shown in the lower right of FIG. In the article area 30A, any one of the article surfaces 2011A to 3014A includes one of the corners of the article area 30, and in the article area 30B, the article surface 3012B includes the corner of the article area 30B.

図15Aの右下に示す物品領域30Bにおいては、物品面3011B~3014Bが物品領域30Bに占める割合が少なくなった場合にも、いずれかの物品面(この場合は物品面3012B)の角は、物品領域30Bの角を含んでいる。 In the article area 30B shown in the lower right of FIG. 15A, even when the ratio of the article surfaces 3011B to 3014B in the article area 30B is reduced, the corners of any article surface (in this case, the article surface 3012B) are It includes the corners of article area 30B.

次に、一つの物品の面内に特徴的な模様が繰り返し存在する物品によって構成される物品領域における、物品面の特定処理について、図15B及び図15Cを参照して説明する。 Next, the process for specifying the surface of an article in an article area composed of articles in which characteristic patterns are repeatedly present within the surface of one article will be described with reference to FIGS. 15B and 15C.

図15Bに示す物品領域31は、星形模様を含む物品311が3つと、雷模様を含む物品312が二つと、黒丸模様を含む物品313が3つとで構成される。図15Cに示す物品領域32も、星形模様を含む物品321が3つと、雷模様を含む物品322が二つと、黒丸模様を含む物品323が3つとで構成される。このような物品領域31、32は、例えば、混載パレットを対象としたデパレタイズ処理の実行時において現れ得る。ここで、星形の模様のコントラストが最も大きいことにより、物品認識装置10によって、星形模様のみを含む領域がテンプレート候補として選ばれたとする。 The article area 31 shown in FIG. 15B includes three articles 311 including star patterns, two articles 312 including thunder patterns, and three articles 313 including black dot patterns. The article area 32 shown in FIG. 15C is also composed of three articles 321 including star patterns, two articles 322 including thunder patterns, and three articles 323 including black dot patterns. Such article areas 31 and 32 may appear, for example, during execution of depalletizing processing for mixed pallets. Here, it is assumed that an area including only a star pattern is selected as a template candidate by the article recognition device 10 because the star pattern has the highest contrast.

この場合、物品認識装置10からは、図15Bの右側の物品領域31に示される情報が出力される。具体的には、物品領域31の角を含む物品面3111と、物品面3111に類似した物品面3112及び3113と、の情報が出力される。そして、物品領域31の角の近傍には、テンプレート候補の抽出に用いた星形模様が現れる。 In this case, the article recognition device 10 outputs the information shown in the article area 31 on the right side of FIG. 15B. Specifically, information about an article surface 3111 including the corners of the article area 31 and article surfaces 3112 and 3113 similar to the article surface 3111 are output. In the vicinity of the corners of the article area 31, the star-shaped patterns used for extracting the template candidates appear.

一方、コントラストが最大である模様が、星形模様ではなく雷型模様であった場合、物品認識装置10からは、図15Cの右側の物品領域32に示される情報が出力される。具体的には、物品領域32の角を含む物品面3211と、物品面3211に類似した物品面3212との情報が出力される。そして、物品領域32の角の近傍には、テンプレート候補の抽出に用いた雷型模様が現れる。 On the other hand, if the pattern with the highest contrast is not the star pattern but the lightning pattern, the article recognition device 10 outputs the information shown in the article area 32 on the right side of FIG. 15C. Specifically, information on an article surface 3211 including the corner of the article area 32 and an article surface 3212 similar to the article surface 3211 is output. Then, in the vicinity of the corners of the article area 32, the lightning pattern used for extracting the template candidates appears.

しかし、図15Bに示した物品領域31、及び、図15Cに示した物品領域32のいずれにおいても、特定された物品面は、実際の物品の面とは異なっている。つまり、本実施形態に係る物品認識装置10に入力される情報において、物品の面に含まれる特徴的な模様が複数存在する場合には、実際の物品と対応する適切な物品面情報を得ることができない。 However, in both the article area 31 shown in FIG. 15B and the article area 32 shown in FIG. 15C, the specified article surface is different from the actual article surface. In other words, in the information input to the article recognition apparatus 10 according to the present embodiment, when there are a plurality of characteristic patterns included in the surface of the article, appropriate article surface information corresponding to the actual article can be obtained. can't

[物品認識装置の適用例]
次に、図16を参照して、本実施形態に係る物品認識装置10の適用例について説明する。図16は、物品認識装置10が適用される作業シーンの例を示す図である。図16には、認識対象の4つの物品40が、作業台41の上に密着して整列されている。センサ42は、例えばRGB-Dセンサ等によって構成され、作業台41の上部に設置される。センサ42は、作業台41上に整列された物品40を撮影することにより、物品40の整列面の3次元点群43と、該3次元点群43に対応する2次元画像44と、を、物品認識装置10(図16においては図示略)に送信する。
[Example of application of article recognition device]
Next, an application example of the article recognition device 10 according to this embodiment will be described with reference to FIG. FIG. 16 is a diagram showing an example of a work scene to which the article recognition device 10 is applied. In FIG. 16, four articles 40 to be recognized are closely aligned on a workbench 41 . The sensor 42 is composed of, for example, an RGB-D sensor or the like, and is installed above the workbench 41 . By photographing the articles 40 aligned on the work table 41, the sensor 42 generates a three-dimensional point group 43 of the alignment surface of the articles 40 and a two-dimensional image 44 corresponding to the three-dimensional point group 43. It is transmitted to the article recognition device 10 (not shown in FIG. 16).

物品40が密着して整列された整列面は、3次元点群43においては、物品間の隙間が検出されずに連続領域として現れる場合がある。一方、2次元画像44においては、物品境界が形成する直線と、直線模様による直線との区別がつかない場合がある。しかしながら、本実施形態に係る物品認識装置10によれば、このような3次元点群に対応する2次元画像が入力された場合にも、整列面を構成する各物品の位置を適切に認識することができる。 The alignment surface on which the articles 40 are closely aligned may appear as a continuous area in the three-dimensional point group 43 without detecting the gaps between the articles. On the other hand, in the two-dimensional image 44, it may not be possible to distinguish between the straight line formed by the article boundary and the straight line formed by the straight line pattern. However, according to the article recognition device 10 according to the present embodiment, even when a two-dimensional image corresponding to such a three-dimensional point group is input, the position of each article constituting the alignment plane is properly recognized. be able to.

なお、本実施形態に係る物品認識装置10の認識対象の物品は、センサ42に対面する側の物品の面が平面である物品に限定されない。例えば、2次元画像内の整列面を多角形近似することが可能な形状を有する物品であれば、どのような物品であってもよい。 Note that the article to be recognized by the article recognition device 10 according to the present embodiment is not limited to an article whose surface facing the sensor 42 is flat. For example, any article may be used as long as it has a shape that allows polygonal approximation of the alignment plane in the two-dimensional image.

図17は、本発明の変形例に係る物品が円柱形状である場合における作業シーンの例を示す図である。図17の左側に示す例においては、円柱形状の物品50が、3つ密着して整列されており、その上面がセンサ42によって撮影される。この場合、センサ42による撮影画像は、図17の右側に示すように、3つの長方形が整列した物品領域を撮影したものとなる。つまり、本実施形態に係る物品認識装置10が認識することが可能な撮影画像となる。 FIG. 17 is a diagram showing an example of a work scene when an article according to a modification of the present invention has a columnar shape. In the example shown on the left side of FIG. 17, three cylindrical articles 50 are closely aligned and their upper surfaces are photographed by the sensor 42 . In this case, the image captured by the sensor 42 is an image of an article area in which three rectangles are aligned, as shown on the right side of FIG. That is, it becomes a photographed image that can be recognized by the article recognition device 10 according to the present embodiment.

また、物品認識装置10は、このような3次元の物品を対象とした場合に、3次元の物品面情報を出力してもよい。図18は、本発明の変形例に係る物品認識装置10Aの概略構成例を示すブロック図である。 Further, the article recognition device 10 may output three-dimensional article surface information when targeting such a three-dimensional article. FIG. 18 is a block diagram showing a schematic configuration example of an article recognition device 10A according to a modification of the invention.

図18に示すように、物品認識装置10Aは、データ受付部15と、3次元物品領域特定部16と、2次元物品領域特定部17と、物品領域受付部11と、認識処理部12Aと、テンプレート候補情報保持部12hと、3次元物品面情報取得部18と、3次元物品情報出力部19と、を含む。 As shown in FIG. 18, the article recognition device 10A includes a data reception section 15, a three-dimensional article area identification section 16, a two-dimensional article area identification section 17, an article area reception section 11, a recognition processing section 12A, It includes a template candidate information holding unit 12h, a 3D product surface information acquisition unit 18, and a 3D product information output unit 19.

データ受付部15は、互いに密着して整列された部品の整列面を撮影して得られた3次元点群と対応する、2次元画像を受け付ける。そして、データ受付部15は、3次元物品領域特定部16に出力する。2次元画像は、不図示のセンサによる撮影画像である。 The data receiving unit 15 receives a two-dimensional image corresponding to a three-dimensional point cloud obtained by photographing the alignment surfaces of the parts aligned in close contact with each other. Then, the data reception unit 15 outputs to the three-dimensional article region identification unit 16. FIG. A two-dimensional image is an image captured by a sensor (not shown).

3次元物品領域特定部16は、データ受付部15から入力された2次元画像における、3次元点群と対応する画素が連続する領域(連続領域)を特定して、2次元物品領域特定部17に出力する。2次元物品領域特定部17は、3次元物品領域特定部16によって特定された連続領域に対応する2次元画像内の2次元領域を多角形近似して、多角形の枠によって囲まれる2次元画素集合を特定する。そして、2次元物品領域特定部17は、特定した2次元画素集合を、物品領域として物品領域受付部11に出力する。 The three-dimensional article area identification unit 16 identifies an area (continuous area) in which pixels corresponding to the three-dimensional point group are continuous in the two-dimensional image input from the data reception unit 15, and the two-dimensional article area identification unit 17 output to The two-dimensional article area identifying section 17 performs polygonal approximation of the two-dimensional area in the two-dimensional image corresponding to the continuous area identified by the three-dimensional article area identifying section 16, and obtains two-dimensional pixels surrounded by the polygonal frame. Identify a set. Then, the two-dimensional article area identifying section 17 outputs the identified two-dimensional pixel set to the article area receiving section 11 as an article area.

物品領域受付部11は、2次元物品領域特定部17から入力された物品領域の情報を、認識処理部12に出力する。認識処理部12は、上述した実施形態に係る認識処理部12と同一であるため、ここでは詳細な説明は省略する。 The article area reception unit 11 outputs information on the article area input from the two-dimensional article area identification unit 17 to the recognition processing unit 12 . Since the recognition processing unit 12 is the same as the recognition processing unit 12 according to the embodiment described above, detailed description thereof will be omitted here.

認識処理部12は、2次元空間上における物品面の位置やサイズなどの物品面情報を生成して、該物品面情報を3次元物品面情報取得部18に出力する。3次元物品面情報取得部18は、認識処理部12から入力された2次元の物品面情報と、データ受付部15が不図示のセンサから受け取った3次元点群と対応する2次元画像と、に基づいて、2次元の物品面の情報に対応する3次元空間上での物品面の情報を取得する。 The recognition processing section 12 generates article surface information such as the position and size of the article surface in the two-dimensional space, and outputs the article surface information to the three-dimensional article surface information acquisition section 18 . The three-dimensional article surface information acquisition unit 18 acquires two-dimensional article surface information input from the recognition processing unit 12, a two-dimensional image corresponding to the three-dimensional point cloud received by the data reception unit 15 from a sensor (not shown), Based on, the information on the article surface in the three-dimensional space corresponding to the information on the two-dimensional article surface is obtained.

具体的には、3次元物品面情報取得部18は、2次元の物品面の位置、サイズに対応する、3次元空間上での物品面の位置、サイズ及び姿勢を計算して取得する。そして、3次元物品面情報取得部18は、取得した3次元の物品面の情報を、3次元物品面情報出力部19を介して、外部のピッキングロボット等に出力する。 Specifically, the three-dimensional article surface information acquisition unit 18 calculates and acquires the position, size, and orientation of the article surface on the three-dimensional space corresponding to the position and size of the two-dimensional article surface. Then, the three-dimensional article surface information acquisition unit 18 outputs the acquired three-dimensional article surface information to an external picking robot or the like via the three-dimensional article surface information output unit 19 .

テンプレート候補情報保持部12hは、上述した実施形態に係るテンプレート候補情報保持部12hと同一であるため、ここではその説明は省略する。 The template candidate information holding unit 12h is the same as the template candidate information holding unit 12h according to the above-described embodiment, and therefore the description thereof is omitted here.

図19は、本変形例に係る物品認識装置10Aによる物品認識処理の手順の例を示すフローチャートである。 FIG. 19 is a flow chart showing an example of the procedure of article recognition processing by the article recognition device 10A according to this modification.

まず、3次元物品領域特定部16(図18参照)は、データ受付部15から入力された2次元画像の中から、3次元点群における画素の連続領域を抽出して、3次元物品領域として特定する(ステップS21)。 First, the three-dimensional article area identification unit 16 (see FIG. 18) extracts a continuous area of pixels in a three-dimensional point cloud from the two-dimensional image input from the data reception unit 15, and defines it as a three-dimensional article area. Identify (step S21).

次いで、2次元物品領域特定部17は、ステップS21で特定された3次元物品領域の中で、未選択のものがあるか否かを判定する(ステップS22)。ステップS22で、未選択の3次元物品領域はないと判定された場合(ステップS22がNO判定の場合)、2次元物品領域特定部17は、認識対象の物品の情報がデータに含まれていないと判断して、ここで処理を終了する。 Next, the 2D article area specifying unit 17 determines whether or not there is an unselected 3D article area among the 3D article areas specified in step S21 (step S22). If it is determined in step S22 that there is no unselected three-dimensional article area (NO determination in step S22), the two-dimensional article area identification unit 17 determines that the data does not include information on the article to be recognized. is determined, and the process ends here.

一方、ステップS22で、未選択の3次元物品領域があると判定された場合(ステップS22がYES判定の場合)、2次元物品領域特定部17は、ステップS16で特定された3次元物品領域に対応する2次元物品領域を計算する(ステップS23)。具体的には、2次元物品領域特定部17は、ステップS16で特定された3次元物品領域に対応する領域を2次元画像内から抽出して該領域の輪郭を多角形近似することにより、該領域を2次元物品領域に特定する。ここで、3次元物品領域が傾きを有するものである場合、2次元物品領域特定部17は、その傾きを補正する処理を行っても構わない。 On the other hand, when it is determined in step S22 that there is an unselected three-dimensional article area (when step S22 determines YES), the two-dimensional article area specifying unit 17 selects the three-dimensional article area specified in step S16. A corresponding two-dimensional article area is calculated (step S23). Specifically, the two-dimensional article area specifying unit 17 extracts an area corresponding to the three-dimensional article area specified in step S16 from within the two-dimensional image and polygonally approximates the outline of the area to obtain the three-dimensional article area. A region is identified as a two-dimensional article region. Here, when the three-dimensional article area has an inclination, the two-dimensional article area identification unit 17 may perform processing for correcting the inclination.

なお、ステップS23の処理は、二つ以上の3次元物品領域を対象として並列で実行することも可能であり、この場合は、演算時間の削減が期待できる。 It should be noted that the process of step S23 can be executed in parallel for two or more three-dimensional article areas, in which case a reduction in computation time can be expected.

次いで、認識処理部12は、ステップS23で特定された2次元物品領域に含まれる、一つ以上の物品面の位置又はサイズ等の物品面情報を取得する(ステップS24)。次いで、3次元物品面情報取得部18は、ステップS24で取得された2次元の物品面情報に対応する3次元の物品面情報を取得する(ステップS25)。具体的には、3次元物品面情報取得部18は、2次元の物品面情報に示される物品面の位置の情報と、データ受付部15に入力された3次元点群と対応する2次元画像の情報と、に基づいて、2次元の物品面情報に対応する3次元の物品面情報(物品面の位置、サイズ、姿勢等)を取得する Next, the recognition processing unit 12 acquires article surface information such as the position or size of one or more article surfaces included in the two-dimensional article area specified in step S23 (step S24). Next, the three-dimensional article surface information acquisition unit 18 acquires three-dimensional article surface information corresponding to the two-dimensional article surface information acquired in step S24 (step S25). Specifically, the three-dimensional article surface information acquisition unit 18 acquires information on the position of the article surface indicated by the two-dimensional article surface information and a two-dimensional image corresponding to the three-dimensional point cloud input to the data reception unit 15. Acquire three-dimensional article surface information (position, size, orientation, etc. of the article surface) corresponding to the two-dimensional article surface information based on the information of

3次元物品面情報取得部18によって得られる3次元の物品面の位置又は姿勢等の情報は、3次元点群における物品面の領域を特定するために必要な情報である。例えば、物品面が平面で構成される場合には、3次元の物品面の位置又は姿勢等には、物品面を構成する多角形角における3次元の位置又は姿勢等が該当する。 Information such as the position or orientation of the three-dimensional article surface obtained by the three-dimensional article surface information acquisition unit 18 is information necessary for specifying the area of the article surface in the three-dimensional point cloud. For example, when the article surface is composed of a plane, the three-dimensional position or orientation of the three-dimensional article surface corresponds to the three-dimensional position or orientation of the polygonal corners forming the article surface.

次いで、3次元物品面情報取得部18は、ステップS25で取得された3次元物品面情報は、所定の条件を満たしているか否かを判定する(ステップS26)。所定の条件には、上述した実施形態で述べた(1)~(4)の条件等がある。ステップS26で、3次元物品面情報は所定の条件を満たしていないと判定された場合(ステップS26がNO判定の場合)、処理の対象としていた物品領域の情報が破棄された上で、ステップS21に戻って処理が行われる。 Next, the 3D article surface information acquisition unit 18 determines whether or not the 3D article surface information acquired in step S25 satisfies a predetermined condition (step S26). The predetermined conditions include the conditions (1) to (4) described in the above embodiment. If it is determined in step S26 that the three-dimensional article surface information does not satisfy the predetermined condition (NO determination in step S26), the information on the article area that was the object of processing is discarded, and step S21 is performed. is returned to and processed.

一方、ステップS26で、3次元物品面情報は所定の条件を満たしていると判定された場合(ステップS26がYES判定の場合)、3次元物品面情報取得部18は、データ受付部15(図18参照)が受け付けた3次元点群内に、未選択の連続領域があるか否かを判定する(ステップS27)。 On the other hand, when it is determined in step S26 that the three-dimensional article surface information satisfies the predetermined condition (when step S26 determines YES), the three-dimensional article surface information acquisition unit 18 receives the data reception unit 15 (see FIG. 18) determines whether or not there is an unselected continuous region in the received three-dimensional point group (step S27).

ステップS27で、未選択の連続領域はあると判定された場合(ステップS27がYES判定の場合)、3次元物品面情報取得部18は、ステップS21に戻って処理を行う。一方、ステップS27で、未選択の連続領域はないと判定された場合(ステップS27がNO判定の場合)、3次元物品面情報取得部18は、ステップS26の条件を満たした3次元の物品面情報を、3次元物品面情報出力部19を介して外部に出力する(ステップS28)。 When it is determined in step S27 that there is an unselected continuous region (when step S27 determines YES), the 3D article surface information acquisition unit 18 returns to step S21 and performs the process. On the other hand, if it is determined in step S27 that there is no unselected continuous region (NO determination in step S27), the 3D article surface information acquisition unit 18 obtains the 3D article surface that satisfies the condition of step S26. The information is output to the outside via the three-dimensional article surface information output unit 19 (step S28).

なお、3次元点群内に未選択の連続領域が残っていた場合であっても、演算時間に関する制約などがある場合には、ステップS21に戻らずに、ステップS28の処理が行われても構わない。 Note that even if unselected continuous regions remain in the three-dimensional point cloud, if there are restrictions on the computation time, the process of step S28 may be performed without returning to step S21. I do not care.

ステップS26がNO判定の場合、又は、ステップS27がYES判定であった後に、ステップS21の処理が行われる場合、2次元物品領域特定部17以降の各部において行われる処理では、テンプレート候補情報保持部12hに保存された画像の情報を再度利用することができる。例えば、密整列された物品の集まりが、複数の撮影画像内にそれぞれ存在する場合等においても、一つの撮影画像から得た物品面の模様情報等を、他の撮影画像においても活用することができる。このような処理が行われることにより、物品の認識精度を向上させたり、演算時間を削減させたりすることができる。 If the determination in step S26 is NO, or if the process in step S21 is performed after the determination in step S27 is YES, the process performed in each part after the two-dimensional article region specifying part 17 includes the template candidate information holding part The image information saved in 12h can be reused. For example, even when a group of closely-arranged articles exists in each of a plurality of photographed images, it is possible to utilize the pattern information of the article surface obtained from one photographed image in other photographed images. can. By performing such processing, it is possible to improve the recognition accuracy of the article and reduce the calculation time.

次に、図20を参照して、本実施形態に係る物品認識装置10を、ピッキングロボットによるピッキング対象の物品の認識処理を行う装置に適用した例について説明する。図20は、物品認識装置10を、ピッキングロボットによるピッキング対象の物品の認識処理を行う装置に適用した場合における、作業シーンの例を示す図である。 Next, with reference to FIG. 20, an example in which the article recognition device 10 according to the present embodiment is applied to a device that recognizes an article to be picked by a picking robot will be described. FIG. 20 is a diagram showing an example of a work scene when the article recognition device 10 is applied to a device that recognizes an article to be picked by a picking robot.

図20に示す例では、本実施形態に係る物品認識装置10は、計算機200により実現される。計算機200は、入力装置204(図2参照)であるマウス204と、出力装置205である表示装置205と、を有する。計算機200の通信IF206(図2参照)には、通信線2061を介して、ピッキングロボット300及びセンサ42が接続される。 In the example shown in FIG. 20 , the article recognition device 10 according to this embodiment is implemented by a computer 200 . The calculator 200 has a mouse 204 as an input device 204 (see FIG. 2) and a display device 205 as an output device 205 . The picking robot 300 and the sensor 42 are connected to the communication IF 206 (see FIG. 2) of the computer 200 via a communication line 2061 .

ピッキングロボット300は、計算機200による物品認識の結果を受け取って所定の動作を行う。センサ42は、作業台41の上に置かれて、ピッキングロボット300によるピッキング動作の対象となる物品40を含む作業シーンを撮像する。なお、センサ42や計算機200などは、ピッキングロボット300と一体に形成されてもよい。 The picking robot 300 receives the result of article recognition by the computer 200 and performs a predetermined operation. The sensor 42 is placed on the workbench 41 and images a work scene including the article 40 to be picked by the picking robot 300 . Note that the sensor 42 , the computer 200 , and the like may be formed integrally with the picking robot 300 .

図20に示すピッキングロボット300の動作が行われるまでの流れは、例えば次のようなものとなる。まず、センサ42が取得した3次元点群に対応する2次元画像に対して、物品認識装置10が物品認識処理を実行して、認識の結果を得る。次いで、物品認識装置10は、認識の結果を適切なプログラムによって解析し、適切なロボット動作を誘起する情報を得る。そして、物品認識装置10は、その情報をピッキングロボット300に送信して、ピッキングロボット300に動作を行わせる。 For example, the flow until the operation of the picking robot 300 shown in FIG. 20 is performed is as follows. First, the article recognition device 10 performs article recognition processing on a two-dimensional image corresponding to a three-dimensional point group acquired by the sensor 42, and obtains a recognition result. The article recognition device 10 then analyzes the recognition results with an appropriate program to obtain information that induces appropriate robot actions. The article recognition device 10 then transmits the information to the picking robot 300 and causes the picking robot 300 to operate.

物品認識装置10は、ピッキングロボット300に、例えば、物品40の把持や、把持した物品40を所定の位置に移動させる動作を行わせる。なお、ピッキングロボット300が、本実施形態に係る物品認識装置10による物品認識処理の結果に基づいて動作を行っているとすれば、ピッキングロボット300により把持される対象の物品40の少なくとも一つには、物品領域の角を含む物品面を有する部品が含まれることになる。 The article recognition device 10 causes the picking robot 300 to grasp the article 40 and move the picked article 40 to a predetermined position, for example. Note that if the picking robot 300 operates based on the result of the article recognition processing by the article recognition device 10 according to the present embodiment, at least one of the articles 40 to be gripped by the picking robot 300 will include parts with article faces that include the corners of the article area.

したがって、ピッキングロボット300によって把持された物品の特徴を調べることにより、ピッキングロボットに指示を出す物品の認識装置が、本実施形態に係る物品認識装置10による物品認識処理と同様の処理を行っているか否かを判断することができる。 Therefore, by examining the characteristics of the item gripped by the picking robot 300, it is possible to determine whether the item recognition device that issues instructions to the picking robot performs the same processing as the item recognition processing by the item recognition device 10 according to the present embodiment. You can decide whether or not

なお、図20には、作業シーンは固定された例を示しているが、本発明はこれに限定されない。作業シーンは適宜変更されてもよく、実際の製造ラインのように刻々と変化する作業シーンにおいて、本実施形態に係る物品認識装置10による物品認識処理を適用することも可能である。 Although FIG. 20 shows an example in which the work scene is fixed, the present invention is not limited to this. The work scene may be changed as appropriate, and it is possible to apply the article recognition processing by the article recognition apparatus 10 according to the present embodiment in a work scene that changes every moment like an actual production line.

また、例えば、上述した実施形態及び変形例は、本発明を分かりやすく説明するために装置(物品認識装置)の構成を詳細且つ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 Further, for example, the above-described embodiments and modifications are detailed and specific descriptions of the configuration of the device (item recognition device) in order to explain the present invention in an easy-to-understand manner. It is not limited to

また、図1において実線の矢印で示した制御線又は情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines or information lines indicated by solid arrows in FIG. 1 indicate those considered necessary for explanation, and do not necessarily indicate all the control lines or information lines on the product. In practice, it may be considered that almost all configurations are interconnected.

また、本明細書において、時系列的な処理を記述する処理ステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)をも含むものである。 In addition, in this specification, processing steps describing time-series processing refer to processing performed in time-series according to the described order, as well as processing performed in parallel or individually, even if processing is not necessarily performed in time-series. It also includes processing (eg, parallel processing or processing by objects) that is executed in parallel.

また、上述した本開示の一実施形態にかかる物品認識装置の各構成要素は、それぞれのハードウェアがネットワークを介して互いに情報を送受信できるならば、いずれのハードウェアに実装されてもよい。また、ある処理部により実施される処理が、一つのハードウェアにより実現されてもよいし、複数のハードウェアによる分散処理により実現されてもよい。 Also, each component of the article recognition device according to the embodiment of the present disclosure described above may be implemented in any hardware as long as each hardware can transmit and receive information to and from each other via a network. Also, a process performed by a certain processing unit may be implemented by one piece of hardware, or may be implemented by distributed processing by a plurality of pieces of hardware.

10…物品認識装置、11…物品領域受付部、12…認識処理部、12a…模様量計算部、12b…テンプレート候補抽出部、12c…テンプレート候補評価部、12d…テンプレート決定部、12e…類似領域検出部、12f…類似領域評価部、12g…物品面情報取得部、12h…テンプレート候補情報保持部、13…物品面情報出力部 REFERENCE SIGNS LIST 10: article recognition device 11: article area reception unit 12: recognition processing unit 12a: pattern amount calculation unit 12b: template candidate extraction unit 12c: template candidate evaluation unit 12d: template determination unit 12e: similar area Detection unit 12f Similar region evaluation unit 12g Product surface information acquisition unit 12h Template candidate information storage unit 13 Product surface information output unit

Claims (8)

互いに密着して配列された複数の物品の整列面と対応する画像を含む2次元画像において画素が連続して存在する領域を多角形近似することによって得られる物品領域の情報が入力される入力部と、
所定値以上の画素が密集した模様領域の模様量が所定の第1閾値以上であり、かつ、前記物品領域を構成する角のうちの、自身の領域との最近接角との距離が最小である領域の情報を用いてテンプレート画像を生成するテンプレート画像生成部と、
前記テンプレート画像との類似度が所定の第2閾値以上である一つ以上の類似領域の情報を用いて、前記物品領域における前記物品の面の位置及びサイズを含む物品面情報を取得して出力する物品面情報取得部と、を備える
物品認識装置。
An input unit for inputting information on an article area obtained by polygonal approximation of an area in which pixels are continuously present in a two-dimensional image containing an image corresponding to an alignment surface of a plurality of articles arranged in close contact with each other. and,
A pattern amount of a pattern area in which pixels of a predetermined value or more are densely packed is a predetermined first threshold value or more, and the distance from the nearest angle to the own area, among the corners forming the article area, is the smallest. a template image generation unit that generates a template image using information of a certain area;
Acquiring and outputting article surface information including the position and size of the surface of the article in the article area using information of one or more similar areas whose degree of similarity to the template image is equal to or higher than a predetermined second threshold and an article surface information acquisition unit that acquires an article recognition device.
前記物品領域は、前記物品領域において他の種類の模様と重複しない模様を含み、模様領域以外の領域の画素値が所定の一定値である一種類以上の多角形が、2次元平面上に敷き詰められることによって構成され、
前記物品領域における前記多角形のサイズは、前記多角形のいずれかの角の頂点からのびる2辺の長さの比によって規定され、
前記物品面情報取得部から出力される前記物品面情報には、前記一種類以上の多角形における、前記物品領域の角に対応する角の位置の情報が含まれる
請求項1に記載の物品認識装置。
The article area includes a pattern that does not overlap with other types of patterns in the article area, and one or more types of polygons having a predetermined constant pixel value in an area other than the pattern area are laid out on a two-dimensional plane. is composed by being
The size of the polygon in the article area is defined by the ratio of the lengths of two sides extending from the apex of one of the corners of the polygon,
2. The article recognition according to claim 1, wherein the article surface information output from the article surface information acquisition unit includes information on the positions of corners corresponding to the corners of the article region in the one or more types of polygons. Device.
一つ以上の前記類似領域のうちの、自身の領域との最近接角との相対的位置関係情報を計算する類似領域評価部をさらに備え、
前記物品面情報取得部は、前記類似領域評価部が計算した前記相対的位置関係情報、及び、一つ以上の前記類似領域の情報を用いて、前記物品面情報を取得する
請求項1又は2に記載の物品認識装置。
Further comprising a similar region evaluation unit that calculates relative positional relationship information between the one or more similar regions and the closest angle to its own region,
3. The product surface information acquisition unit acquires the product surface information using the relative positional relationship information calculated by the similar region evaluation unit and information of one or more similar regions. Article recognition device according to.
自身の領域との距離又は前記相対的位置関係情報の計算対象となる最近接角は、記物品領域を構成する角の最小角度からの角度の差分が所定の第3閾値未満となる角である
請求項3に記載の物品認識装置。
The closest angle to be calculated for the distance from the own region or the relative positional relationship information is the angle at which the angle difference from the minimum angle of the corners forming the article region is less than a predetermined third threshold. The article recognition device according to claim 3.
前記テンプレート画像生成部は、自身の領域を分断する直線模様が存在する領域を、前記テンプレート画像の元となるテンプレートの候補から除外する
請求項1又は2に記載の物品認識装置。
3. The article recognition device according to claim 1, wherein the template image generation unit excludes a region having a linear pattern that divides its own region from candidates for templates that are sources of the template image.
前記テンプレート画像生成部は、一つ以上の前記テンプレートの候補のそれぞれに対して、自身の領域との最近接角がある方向に、前記テンプレートの候補の領域を縮小する
請求項5に記載の物品認識装置。
6. The article according to claim 5, wherein the template image generating unit reduces the template candidate area in a direction having the closest angle to its own area for each of the one or more template candidates. recognition device.
前記類似領域評価部は、一つ以上の前記類似領域のそれぞれを、その最近接角の方向に拡大して拡大類似領域を得、自身の領域との最近接角からの距離が最小となる第1拡大類似領域と類似度が所定の第4閾値未満となる拡大類似領域を、前記類似領域の対象から外す
請求項3に記載の物品認識装置。
The similar region evaluation unit expands each of the one or more similar regions in the direction of the closest angle to obtain an enlarged similar region, and obtains an enlarged similar region, the first similar region having the smallest distance from the closest angle to its own region. 4. The article recognition device according to claim 3, wherein an enlarged similar area having a degree of similarity less than a predetermined fourth threshold value with respect to one enlarged similar area is excluded from targets of the similar area.
入力部に、互いに密着して配列された複数の物品の整列面と対応する画像を含む2次元画像において画素が連続して存在する領域を多角形近似することによって得られる物品領域の情報が入力される手順と、
テンプレート画像生成部が、所定値以上の画素が密集した模様領域の模様量が所定の第1閾値以上であり、かつ、前記物品領域を構成する角のうちの、自身の領域との最近接角との距離が最小である領域の情報を用いてテンプレート画像を生成する手順と、
物品面情報取得部が、前記テンプレート画像との類似度が所定の第2閾値以上である一つ以上の類似領域の情報を用いて、前記物品領域における前記物品の面の位置及びサイズを含む物品面情報を取得して出力する手順と、を含む
物品認識方法。
Information on the article area obtained by polygonal approximation of the area where pixels are continuously present in a two-dimensional image containing an image corresponding to the alignment surface of a plurality of articles arranged in close contact with each other is input to the input unit. and
The template image generation unit determines that the pattern amount of a pattern area in which pixels of a predetermined value or more are densely packed is a predetermined first threshold value or more, and the closest angle to the own area among the corners forming the article area. a procedure for generating a template image using information of the area with the minimum distance from
An article surface information acquisition unit obtains an article including the position and size of the surface of the article in the article area using information of one or more similar areas having a degree of similarity with the template image equal to or greater than a second threshold. and a procedure for acquiring and outputting face information.
JP2021181847A 2021-11-08 2021-11-08 Article recognition device and article recognition method Pending JP2023069743A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021181847A JP2023069743A (en) 2021-11-08 2021-11-08 Article recognition device and article recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021181847A JP2023069743A (en) 2021-11-08 2021-11-08 Article recognition device and article recognition method

Publications (1)

Publication Number Publication Date
JP2023069743A true JP2023069743A (en) 2023-05-18

Family

ID=86328242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021181847A Pending JP2023069743A (en) 2021-11-08 2021-11-08 Article recognition device and article recognition method

Country Status (1)

Country Link
JP (1) JP2023069743A (en)

Similar Documents

Publication Publication Date Title
US9483707B2 (en) Method and device for recognizing a known object in a field of view of a three-dimensional machine vision system
US20180260669A1 (en) Image processing apparatus, image processing method, template generation apparatus, object recognition processor, and object recognition processing program
US11794343B2 (en) System and method for height-map-based grasp execution
EP3376433B1 (en) Image processing apparatus, image processing method, and image processing program
JPH0685183B2 (en) Identification method of 3D object by 2D image
US11654571B2 (en) Three-dimensional data generation device and robot control system
CN111199562A (en) System and method for rapid object detection while robotic picking
CN113191174B (en) Article positioning method and device, robot and computer readable storage medium
CN113284178B (en) Object stacking method, device, computing equipment and computer storage medium
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
US10311564B2 (en) Image processing device, image sensor, and image processing method
CN115661064A (en) Container identification method based on combination of image and point cloud
JPH07103715A (en) Method and apparatus for recognizing three-dimensional position and attitude based on visual sense
JP2023069743A (en) Article recognition device and article recognition method
CN116309882A (en) Tray detection and positioning method and system for unmanned forklift application
US20230297068A1 (en) Information processing device and information processing method
US20210374664A1 (en) Method and apparatus for tracking, damage detection and classification of a shipping object using 3d scanning
Peng et al. Real time and robust 6D pose estimation of RGBD data for robotic bin picking
Gajdošech et al. Towards Deep Learning-based 6D Bin Pose Estimation in 3D Scans
Zrira et al. Evaluation of PCL's Descriptors for 3D Object Recognition in Cluttered Scene
CN114972495A (en) Grabbing method and device for object with pure plane structure and computing equipment
WO2015136716A1 (en) Image processing device, image sensor, and image processing method
Thamer et al. A 3d-robot vision system for automatic unloading of containers
JP7456521B2 (en) Object recognition device, object recognition method, program
JP7189586B2 (en) Robotic system for object size detection