JP7455010B2 - Detection device and detection program - Google Patents

Detection device and detection program Download PDF

Info

Publication number
JP7455010B2
JP7455010B2 JP2020111786A JP2020111786A JP7455010B2 JP 7455010 B2 JP7455010 B2 JP 7455010B2 JP 2020111786 A JP2020111786 A JP 2020111786A JP 2020111786 A JP2020111786 A JP 2020111786A JP 7455010 B2 JP7455010 B2 JP 7455010B2
Authority
JP
Japan
Prior art keywords
area
product
tray
vertex
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020111786A
Other languages
Japanese (ja)
Other versions
JP2022010961A (en
Inventor
卓也 北出
克明 川嶋
佳祐 山谷
剛志 加藤
基紹 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2020111786A priority Critical patent/JP7455010B2/en
Publication of JP2022010961A publication Critical patent/JP2022010961A/en
Application granted granted Critical
Publication of JP7455010B2 publication Critical patent/JP7455010B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明の一側面は、検知装置及び検知プログラムに関する。 One aspect of the present invention relates to a detection device and a detection program.

コンベヤ等の搬送手段によって搬送される商品箱に収納される物品の検知を行う装置として、商品箱の上面のX線透過画像と、商品箱の側面のX線透過画像と、予め用意された物品の基準画像と、に基づいて商品箱に収納された物品を計数する装置が知られている(例えば特許文献1参照)。 As a device that detects articles stored in a product box transported by a conveyor or other conveyance means, the device detects an X-ray transmission image of the top surface of the product box, an X-ray transmission image of the side surface of the product box, and the items prepared in advance. A device is known that counts articles stored in a product box based on a reference image of (see, for example, Patent Document 1).

また、コンベヤにより搬送される複数のワーク(物品)の重なりの有無を、3次元カメラによって撮影された搬送中のワークの3次元画像と、基準となるワークの3次元形状と、に基づいて検出する装置が知られている(例えば特許文献2参照)。 In addition, the presence or absence of overlap between multiple workpieces (articles) transported by a conveyor is detected based on a 3D image of the workpieces being transported taken by a 3D camera and the 3D shape of the reference workpiece. A device is known that does this (for example, see Patent Document 2).

特開2016-141541号公報Japanese Patent Application Publication No. 2016-141541 特開2019-111640号公報Japanese Patent Application Publication No. 2019-111640

ところで、物流センタ等に設置される商品(物品)の仕分けを行うソーターシステムにおいては、コンベヤによって仕分け対象の商品を1つずつ搬送しなければならない場合がある。この場合、コンベヤ上を流れる1つのトレー上に複数の商品が載置される状態(いわゆる二重載せの状態)が作業ミス等に起因して発生した際には、当該トレーに載置された商品が誤った配送先に配送されてしまうことを防止するために、当該トレーを速やかに検知する必要がある。 By the way, in a sorter system for sorting products (articles) installed in a distribution center or the like, there are cases where the products to be sorted must be transported one by one by a conveyor. In this case, if multiple products are placed on one tray flowing on the conveyor (so-called double-loading condition) due to a work error, etc., In order to prevent products from being delivered to the wrong destination, it is necessary to promptly detect the tray.

上述した特許文献1,2に記載された仕組みによれば、このような異常状態(二重載せの状態)を検知できる可能性があるが、上記特許文献1に開示された装置には、2方向のX線透過画像を取得するためのX線撮像システム(X線発生装置、及びラインセンサ等のX線検出センサ等)が必要となる。このため、設備が大型化すると共に設備コストが比較的高額になるという問題がある。上記特許文献2に開示された装置においても、物品の3次元画像を撮影する3次元カメラが必要となるため、上記特許文献1の装置と同様の問題がある。 According to the mechanisms described in Patent Documents 1 and 2 mentioned above, there is a possibility that such an abnormal state (double loading state) can be detected, but the device disclosed in Patent Document 1 mentioned above has two An X-ray imaging system (an X-ray generator, an X-ray detection sensor such as a line sensor, etc.) is required to acquire a directional X-ray transmission image. Therefore, there is a problem that the equipment becomes larger and the equipment cost becomes relatively high. The device disclosed in Patent Document 2 also requires a three-dimensional camera to take a three-dimensional image of the article, and therefore has the same problem as the device in Patent Document 1.

本発明の一側面は、物品搬送に関する異常状態を簡易な設備で検知可能な検知装置及び検知プログラムを提供することを目的とする。 One aspect of the present invention is to provide a detection device and a detection program that can detect abnormal conditions related to article transportation with simple equipment.

本発明の一側面に係る検知装置は、平面視において多角形状の物品が載置された状態で搬送されるトレーを上方から撮影することにより得られたトレー画像を取得する取得部と、トレー画像に対して画像認識を実行することにより、トレー画像に含まれる物品の頂点を検出する認識部と、認識部による頂点の検出結果に基づいて、トレーに複数の物品が載置されているか否かを判定する判定部と、を備える。 A detection device according to one aspect of the present invention includes an acquisition unit that acquires a tray image obtained by photographing a tray conveyed from above with a polygonal article placed thereon in a plan view; A recognition unit that detects the vertices of the items included in the tray image by performing image recognition on the tray image, and a recognition unit that detects the vertices of the items included in the tray image, and determines whether multiple items are placed on the tray based on the detection results of the vertices by the recognition unit. and a determination unit that determines.

本発明の一側面に係る検知装置においては、物品が載置された状態で搬送されるトレーの画像(トレー画像)に対する画像認識結果から、トレー画像に含まれる物品の頂点(角部)が検出される。そして、頂点の検出結果(例えば、頂点数)に基づいて、トレーに複数の物品が載置されている状態(いわゆる二重載せの状態)であるか否かが判定される。上記検知装置によれば、トレーの上方から撮影された画像に対する比較的簡易な解析処理によって異常状態(上述した二重載せの状態)を検知することができる。すなわち、物品搬送に関する異常状態を簡易な設備で検知することができる。 In the detection device according to one aspect of the present invention, the apex (corner) of the article included in the tray image is detected from the image recognition result of the image of the tray conveyed with the article placed thereon (tray image). be done. Then, based on the detection result of the vertices (for example, the number of vertices), it is determined whether or not a plurality of articles are placed on the tray (so-called double-loading condition). According to the above-mentioned detection device, an abnormal state (the above-mentioned double loading state) can be detected by relatively simple analysis processing of an image photographed from above the tray. That is, abnormal conditions related to article transportation can be detected with simple equipment.

本発明の一側面によれば、物品搬送に関する異常状態を簡易な設備で検知可能な検知装置及び検知プログラムを提供することができる。 According to one aspect of the present invention, it is possible to provide a detection device and a detection program that can detect abnormal conditions related to article transportation with simple equipment.

実施形態に係る検知装置を含む検知システムの構成を示す図である。1 is a diagram showing the configuration of a detection system including a detection device according to an embodiment. トレー画像の取得方法の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of a tray image acquisition method. トレー画像及びトレー画像に対する画像認識結果の一例を示す図である。It is a figure which shows an example of a tray image and the image recognition result with respect to a tray image. 二重載せ状態の第1の例を示す図である。It is a figure which shows the 1st example of a double loading state. 二重載せ状態の第2の例を示す図である。It is a figure which shows the 2nd example of a double loading state. 二重載せ状態の第3の例を示す図である。It is a figure which shows the 3rd example of a double loading state. 二重載せ状態の第4の例を示す図である。It is a figure which shows the 4th example of a double loading state. 頂点が誤検出された場合の例を示す図である。FIG. 7 is a diagram illustrating an example of a case where a vertex is erroneously detected. 検知装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation of a detection device. 判定部による判定処理の手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of a procedure of a determination process performed by a determination unit. 検知装置のハードウェア構成の一例を示す図である。It is a diagram showing an example of the hardware configuration of a detection device. 記録媒体に格納された検知プログラムの構成を示す図である。FIG. 3 is a diagram showing the configuration of a detection program stored in a recording medium.

以下、添付図面を参照して、本発明の一実施形態について詳細に説明する。なお、図面の説明において同一又は相当要素には同一符号を付し、重複する説明を省略する。 EMBODIMENT OF THE INVENTION Hereinafter, one embodiment of the present invention will be described in detail with reference to the accompanying drawings. In addition, in the description of the drawings, the same or equivalent elements are given the same reference numerals, and redundant description will be omitted.

図1は、一実施形態に係る検知装置10を含む検知システム1の構成を示す図である。検知システム1は、例えば、物流センタ等において用いられる。検知システム1は、検知装置10と、ソーターシステム20と、カメラ30と、を備えている。 FIG. 1 is a diagram showing the configuration of a detection system 1 including a detection device 10 according to one embodiment. The detection system 1 is used, for example, in a logistics center. The detection system 1 includes the detection device 10, a sorter system 20, and a camera 30.

ソーターシステム20は、商品G(物品)の仕分けを行うシステムである。商品Gは、平面視において多角形状を有している。商品Gは、特定の商品に限定されないが、例えばパッケージ(箱)に収納されたスマートフォン、タブレット端末等である。通常、パッケージは直方体状に形成されることが多い。また、商品Gの外形は、パッケージの形状と同様の形状となる。従って、この場合には、商品Gは、直方体状であり、平面視において四角形状を有する。以下の説明において、商品Gは、平面視において四角形状を有するものとする。 The sorter system 20 is a system that sorts products G (articles). Product G has a polygonal shape in plan view. The product G is not limited to a specific product, but may be, for example, a smartphone, a tablet terminal, etc. housed in a package (box). Typically, a package is often formed into a rectangular parallelepiped shape. Further, the outer shape of the product G is similar to the shape of the package. Therefore, in this case, the product G has a rectangular parallelepiped shape and a quadrangular shape in plan view. In the following description, it is assumed that the product G has a rectangular shape in plan view.

ソーターシステム20は、コンベヤ21と、コンベヤ21上に配置されてコンベヤ21上を流れる複数のトレー22と、を含んでいる。トレー22には、仕分け対象の商品Gが載置される。コンベヤ21は、トレー22に商品Gが載置された状態で、トレー22を搬送する。なお、コンベヤ21上には、商品Gが載置されていない空のトレー22も流れている。コンベヤ21によるトレー22の搬送速度は、例えば分速85m程度であり、比較的高速である。 Sorter system 20 includes a conveyor 21 and a plurality of trays 22 disposed on and flowing over conveyor 21 . The products G to be sorted are placed on the tray 22. The conveyor 21 conveys the tray 22 with the product G placed thereon. Note that empty trays 22 on which no products G are placed are also flowing on the conveyor 21. The conveyance speed of the tray 22 by the conveyor 21 is, for example, about 85 m/min, which is relatively high.

ソーターシステム20において、商品Gの仕分けが適切に行われるためには、1つのトレー22上に1つの商品Gのみが載置される必要がある。しかし、例えば商品Gをトレー22上に載置する際における作業ミス等に起因して、1つのトレー22上に複数(典型的には2つ)の商品Gが載置される異常状態(以下、「二重載せ」という。)が発生し得る。このような二重載せが発生すると、商品Gの仕分けミスが発生し、商品Gが誤った配送先(例えば店舗等)に配送される問題(誤配送)が生じるおそれがある。 In the sorter system 20, in order to properly sort the products G, only one product G needs to be placed on one tray 22. However, due to, for example, a work error when placing the product G on the tray 22, an abnormal situation (hereinafter referred to as , "double loading") may occur. If such double loading occurs, there is a risk that the product G will be sorted incorrectly, resulting in a problem (erroneous delivery) in which the product G is delivered to the wrong destination (for example, a store, etc.).

そこで、検知システム1は、上述した二重載せを検知するためのシステムとして、検知装置10及びカメラ30を有している。カメラ30は、例えば、コンベヤ21の上方に設置され、コンベヤ21により搬送されるトレー22を上方から撮影する。 Therefore, the detection system 1 includes a detection device 10 and a camera 30 as a system for detecting the double loading described above. The camera 30 is installed above the conveyor 21, for example, and photographs the tray 22 conveyed by the conveyor 21 from above.

図2に示されるように、カメラ30は、コンベヤ21上において予め設定された撮影エリアSAを通過するトレー22を撮影するように構成されている。カメラ30は、例えばトリガーカメラである。カメラ30は、例えば図示しないセンサ等によって撮影エリアSAにトレー22の全体が進入したことが検知されると、当該センサからの検知信号に基づいて、撮影エリアSAを撮影する。このような撮影処理により、図3の左部に示されるようなトレー画像IM1が取得される。トレー画像IM1は、トレー22の全体を被写体として含んだ静止画像である。図3の左部に示されるように、トレー22には、トレー22を識別するためのトレーIDが記載されたID領域が設けられている。図3の例では、「101」がトレーIDである。 As shown in FIG. 2, the camera 30 is configured to photograph the tray 22 passing through a preset photographing area SA on the conveyor 21. The camera 30 is, for example, a trigger camera. For example, when a sensor (not shown) or the like detects that the entire tray 22 has entered the photographing area SA, the camera 30 photographs the photographing area SA based on a detection signal from the sensor. Through such photographing processing, a tray image IM1 as shown on the left side of FIG. 3 is obtained. The tray image IM1 is a still image that includes the entire tray 22 as a subject. As shown on the left side of FIG. 3, the tray 22 is provided with an ID area in which a tray ID for identifying the tray 22 is written. In the example of FIG. 3, "101" is the tray ID.

なお、トレー画像IM1は、必ずしもトレー22の全体を被写体として含んでいる必要はない。トレー画像IM1は、トレー22において商品Gが載置されることが予定されている領域(例えば、トレー22が箱形に形成されている場合には、箱の内側部分の領域)を被写体として含んでいればよい。また、ソーターシステム20は、1つのカメラ30のみを含んでいてもよいし、それぞれ異なる撮影エリアSAを有する複数のカメラ30を含んでいてもよい。 Note that the tray image IM1 does not necessarily need to include the entire tray 22 as a subject. The tray image IM1 includes, as a subject, an area on the tray 22 where the product G is scheduled to be placed (for example, if the tray 22 is formed in a box shape, an area inside the box). It's fine as long as you are. Further, the sorter system 20 may include only one camera 30, or may include a plurality of cameras 30 each having a different photographing area SA.

検知装置10は、カメラ30によって撮影されたトレー画像IM1を取り込み、当該トレー画像IM1を解析することによって、二重載せを検知する。図1に示されるように、検知装置10は、取得部11と、認識部12と、判定部13と、を備えている。 The detection device 10 detects double loading by capturing the tray image IM1 photographed by the camera 30 and analyzing the tray image IM1. As shown in FIG. 1, the detection device 10 includes an acquisition section 11, a recognition section 12, and a determination section 13.

取得部11は、商品Gが載置された状態で搬送されるトレー22を上方から撮影することにより得られたトレー画像IM1(図3の左部参照)を取得する。本実施形態では、取得部11は、カメラ30によって撮影されたトレー画像IM1を取得する。取得部11は、カメラ30から直接トレー画像IM1を取得してもよいし、カメラ30とは別の記録媒体に一旦記録されたトレー画像IM1を取得してもよい。 The acquisition unit 11 acquires a tray image IM1 (see the left part of FIG. 3) obtained by photographing the tray 22 conveyed with the product G placed thereon from above. In this embodiment, the acquisition unit 11 acquires the tray image IM1 photographed by the camera 30. The acquisition unit 11 may acquire the tray image IM1 directly from the camera 30, or may acquire the tray image IM1 once recorded on a recording medium different from the camera 30.

認識部12は、トレー画像IM1に対して画像認識を実行することにより、少なくともトレー画像IM1に含まれる商品Gの頂点を検出する。本実施形態では、認識部12は、商品Gの頂点以外にも、商品領域(物品領域)と上述したID領域とを検出する。図3の右部に示されるように、認識部12は、例えば、物体検出処理及びエッジ検出処理等を行うことにより、ID領域、商品領域、及び商品Gの頂点を検出する。図3の右部に示される結果画像IM2は、トレー画像IM1に対して認識部12による認識結果を重畳表示させたものである。具体的には、結果画像IM2は、認識部12によって検出されたID領域A1、商品領域A2、及び頂点領域A3(商品Gの頂点を含む領域)をトレー画像IM1に重畳表示させたものである。 The recognition unit 12 detects at least the vertex of the product G included in the tray image IM1 by performing image recognition on the tray image IM1. In the present embodiment, the recognition unit 12 detects, in addition to the vertices of the product G, a product area (article area) and the above-mentioned ID area. As shown on the right side of FIG. 3, the recognition unit 12 detects the ID area, the product area, and the vertices of the product G by, for example, performing object detection processing, edge detection processing, and the like. The result image IM2 shown on the right side of FIG. 3 is a superimposed display of the recognition result by the recognition unit 12 on the tray image IM1. Specifically, the resultant image IM2 is an image in which the ID area A1, product area A2, and vertex area A3 (area including the vertex of the product G) detected by the recognition unit 12 are displayed superimposed on the tray image IM1. .

ID領域A1は、トレー22においてトレーID(図3の例では「101」)が記載された部分を含む領域である。ID領域A1は、例えば矩形状の領域として設定される。 The ID area A1 is an area that includes a portion of the tray 22 where a tray ID (“101” in the example of FIG. 3) is written. The ID area A1 is set, for example, as a rectangular area.

商品領域A2は、トレー22上に載置された一以上の商品Gの全体を含む領域である。商品領域A2は、例えば矩形状の領域として設定される。例えば、商品領域A2は、トレー22上に載置された一以上の商品Gの全体を含む最小の矩形状の領域として設定される。或いは、商品領域A2は、商品領域A2の各辺と商品Gとが接しないように(例えば、各辺と商品Gとの間に所定長の隙間ができるように)設定されてもよい。ただし、商品領域A2は、画像認識の結果として決定される領域であるため、必ずしも上記のように予め定めた通りに設定されるわけではない。すなわち、商品Gの一部が商品領域A2よりも外側にはみ出る場合もあり得る。このように認識部12により検出された領域と実際の領域とが異なり得る点は、商品領域A2以外の領域についても同様である。 The product area A2 is an area that includes the whole of one or more products G placed on the tray 22. The product area A2 is set, for example, as a rectangular area. For example, the product area A2 is set as the smallest rectangular area that includes the whole of one or more products G placed on the tray 22. Alternatively, the product area A2 may be set so that each side of the product area A2 and the product G do not touch each other (for example, so that a gap of a predetermined length is created between each side and the product G). However, since the product area A2 is an area determined as a result of image recognition, it is not necessarily set as predetermined as described above. That is, a part of the product G may protrude outside the product area A2. The fact that the area detected by the recognition unit 12 and the actual area may differ in this way also applies to areas other than the product area A2.

頂点領域A3は、商品Gの頂点(本実施形態では、商品Gのパッケージの四隅に対応する部分)を含む領域である。頂点領域A3は、例えば矩形状の領域として設定される。頂点領域A3は、例えば、頂点を中心とする予め定められた大きさの矩形状の領域として設定される。 The vertex area A3 is an area including the vertices of the product G (in this embodiment, portions corresponding to the four corners of the package of the product G). The vertex area A3 is set, for example, as a rectangular area. The vertex area A3 is set, for example, as a rectangular area of a predetermined size centered on the vertex.

上述したID領域A1、商品領域A2、及び頂点領域A3の位置は、例えば、各領域A1,A2,A3の四隅に対応する座標によって特定される。各領域A1,A2,A3には、それぞれ異なるクラス名(分類情報)が関連付けられる。例えば、ID領域A1には、ID領域を示すクラス名「id」が関連付けられ、商品領域A2には、商品領域を示すクラス名「item」が関連付けられ、頂点領域A3には、頂点を示すクラス名「edge」が関連付けられる。このようなクラス名に基づいて、各領域A1,A2,A3は、内部的に(すなわち、検知装置10の内部の処理において)区別され得る。なお、各領域A1,A2,A3には、検出結果の確からしさを示す評価値が関連付けられてもよい。認識部12は、検出された領域のうち、予め定められた閾値以上の評価値を有する領域のみを、最終的な検出結果(領域A1,A2,A3)として取得してもよい。 The positions of the ID area A1, product area A2, and vertex area A3 described above are specified, for example, by coordinates corresponding to the four corners of each area A1, A2, and A3. Different class names (classification information) are associated with each of the areas A1, A2, and A3. For example, the ID area A1 is associated with a class name "id" indicating an ID area, the product area A2 is associated with a class name "item" indicating a product area, and the vertex area A3 is associated with a class name indicating a vertex. The name "edge" is associated. Based on such class names, each area A1, A2, A3 can be distinguished internally (that is, in the internal processing of the detection device 10). Note that each area A1, A2, and A3 may be associated with an evaluation value indicating the certainty of the detection result. The recognition unit 12 may acquire only the areas having an evaluation value equal to or greater than a predetermined threshold value from among the detected areas as the final detection results (areas A1, A2, A3).

認識部12は、予め学習された学習済みモデルを用いることによって、上述した物体検出処理を実行してもよい。学習済みモデルは、例えば、トレー画像IM1を読み込んで、当該トレー画像IM1に含まれる各領域A1,A2,A3を検出するように学習されたモデルである。このような学習済みモデルは、例えば深層学習(ディープラーニング)等によって学習され得る。この場合、学習済みモデルは、多層ニューラルネットワークによって構成され得る。ただし、学習済みモデルに適用される機械学習の手法は上記例に限定されず、学習済みモデルの内部構造は、適用される機械学習の手法に応じて決定される。 The recognition unit 12 may execute the object detection process described above by using a trained model that has been trained in advance. The trained model is, for example, a model that has been trained to read the tray image IM1 and detect each area A1, A2, and A3 included in the tray image IM1. Such a trained model may be trained by, for example, deep learning. In this case, the trained model may be configured by a multilayer neural network. However, the machine learning method applied to the trained model is not limited to the above example, and the internal structure of the trained model is determined according to the applied machine learning method.

上記学習のための教師データとしては、例えば、トレー画像IM1と、トレー画像IM1中におけるID領域、商品領域、及び頂点領域の位置(座標)を示す情報(すなわち正解ラベル)と、を互いに関連付けたデータが用いられ得る。また、上述した教師データを用いた学習は、例えば以下のように行われる。トレー22が空の場合(第1の正常例)、トレー22内に1つの商品Gが載置されている場合(第2の正常例)、及びトレー22内に2つの商品Gが載置されている場合(二重載せ(異常)の例)等のパターン毎に複数の教師データが用意される。なお、様々なバリエーションに対応可能な学習済みモデルを生成するためには、第1の正常例については、トレー22内に載置される商品Gの複数の異なる姿勢パターンの各々について教師データが用意されることが好ましい。また、二重載せの例については、後述する図4~図7に例示されるような種々のパターンについて教師データが用意されることが好ましい。このように用意された複数の教師データを用いた学習によって、上述した学習済みモデルが得られる。 As the training data for the above learning, for example, the tray image IM1 and information indicating the positions (coordinates) of the ID area, product area, and vertex area in the tray image IM1 (i.e., correct label) are associated with each other. data can be used. Further, learning using the above-mentioned teacher data is performed, for example, as follows. When the tray 22 is empty (first normal example), when one product G is placed on the tray 22 (second normal example), and when two products G are placed on the tray 22. A plurality of training data are prepared for each pattern, such as when the data is loaded (example of double loading (abnormality)). Note that in order to generate a trained model that can handle various variations, for the first normal example, training data is prepared for each of a plurality of different posture patterns of the product G placed in the tray 22. It is preferable that Further, regarding the example of double loading, it is preferable that training data be prepared for various patterns as illustrated in FIGS. 4 to 7, which will be described later. The above-mentioned trained model is obtained by learning using a plurality of pieces of training data prepared in this way.

図3の左部に示されるように、商品Gが平面視において四角形状を有する場合において、認識部12による画像認識が適切に実行された場合には、1つのID領域A1と、1つの商品領域A2と、4つの頂点領域A3と、が検出されることになる。一方、トレー22が空の場合において、認識部12による画像認識が適切に実行された場合には、1つのID領域A1のみが検出されることになる。以下、認識部12による検出結果のいくつかの例について説明する。なお、以下では、トレー22内において商品Gが載置されるエリアのみに着目し、ID領域A1の説明を省略する。 As shown in the left part of FIG. 3, when the product G has a rectangular shape in plan view, if the image recognition by the recognition unit 12 is properly performed, one ID area A1 and one product Area A2 and four vertex areas A3 will be detected. On the other hand, when the tray 22 is empty and the image recognition by the recognition unit 12 is appropriately executed, only one ID area A1 will be detected. Some examples of detection results by the recognition unit 12 will be described below. In addition, below, attention will be paid only to the area in the tray 22 where the product G is placed, and description of the ID area A1 will be omitted.

(二重載せ状態の第1の例)
図4は、二重載せ状態の第1の例を示す図である。この例では、2つの商品G1,G2が互いに離間した状態でトレー22上に載置されている。この場合、図4に示されるように、認識部12によって、2つの商品G1,G2の全体を含むように設定された商品領域A2と、8つの頂点領域A3(商品G1の4つの頂点領域A3及び商品G2の4つの頂点領域A3)と、が検出される。
(First example of double loading state)
FIG. 4 is a diagram showing a first example of a double loading state. In this example, two products G1 and G2 are placed on the tray 22 while being spaced apart from each other. In this case, as shown in FIG. and four vertex areas A3) of product G2 are detected.

(二重載せ状態の第2の例)
図5は、二重載せ状態の第2の例を示す図である。この例では、一方の商品G1の一部の上に他方の商品G2が重なった状態で、2つの商品G1,G2がトレー22上に載置されている。また、商品G2によって、商品G1の1つの頂点が覆い隠されている。この場合、図5に示されるように、認識部12によって、2つの商品G1,G2の全体を含むように設定された商品領域A2と、7つの頂点領域A3(商品G1の3つの頂点領域A3及び商品G2の4つの頂点領域A3)と、が検出される。すなわち、商品G2によって隠された商品G1の頂点が検出されず、それ以外の7つの頂点に対応する頂点領域A3が検出される。
(Second example of double loading)
FIG. 5 is a diagram showing a second example of a double loading state. In this example, two products G1 and G2 are placed on the tray 22, with one product G1 partially overlapping the other product G2. Furthermore, one vertex of the product G1 is covered up by the product G2. In this case, as shown in FIG. and four vertex areas A3) of product G2 are detected. That is, the vertex of the product G1 hidden by the product G2 is not detected, but the vertex area A3 corresponding to the other seven vertices is detected.

ここで、認識部12は、商品領域A2内において商品Gが占める商品占有領域A4(物品占有領域)を推定してもよい。商品占有領域A4は、商品領域A2のうち実際に商品Gが占有する領域である。例えば、認識部12は、トレー画像IM1(図3参照)において、トレー22が占める領域(すなわち、商品Gが載置されていない領域)と商品Gが占める領域とを輝度等の画素値に基づく二値化処理によって切り分けてもよい。このような二値化処理により、商品Gが占める領域のみを切り出したシルエット画像(例えば、商品Gが占める領域を黒で表し、その他の領域を白で表した画像)が得られる。認識部12は、当該シルエット画像に基づいて商品占有領域A4を設定してもよい。ただし、商品占有領域A4を推定する方法は、上記のシルエット画像に基づく方法に限定されない。例えば、認識部12は、予め撮影された空のトレー22の画像とトレー画像IM1とを比較することで差分(背景差分)を抽出し、当該差分に対応する領域を商品占有領域A4として設定してもよい。 Here, the recognition unit 12 may estimate a product occupied area A4 (article occupied area) occupied by the product G within the product area A2. The product occupied area A4 is an area actually occupied by the product G in the product area A2. For example, the recognition unit 12 determines the area occupied by the tray 22 (that is, the area where the product G is not placed) and the area occupied by the product G in the tray image IM1 (see FIG. 3) based on pixel values such as brightness. It may also be divided by binarization processing. Through such binarization processing, a silhouette image in which only the region occupied by the product G is cut out (for example, an image in which the region occupied by the product G is represented in black and the other regions are represented in white) is obtained. The recognition unit 12 may set the product occupation area A4 based on the silhouette image. However, the method for estimating the product occupied area A4 is not limited to the method based on the silhouette image described above. For example, the recognition unit 12 extracts a difference (background difference) by comparing the image of the empty tray 22 photographed in advance and the tray image IM1, and sets the area corresponding to the difference as the product occupied area A4. It's okay.

或いは、認識部12は、例えば公知のセグメンテーション処理(例えば、セマンティックセグメンテーション等)を用いることにより、トレー画像IM1において商品占有領域A4を抽出(推定)してもよい。例えば、認識部12は、トレー画像IM1に対する画像認識として、上述した物体検出処理及びセグメンテーション処理の両方を実行することにより、図5に示されるような各領域A1~A4を検出することができる。ただし、トレー画像IM1における光の反射具合、ブレ等によっては、商品占有領域A4を精度良く推定することができない場合もある。その場合には、認識部12は、商品占有領域A4を推定する処理を省略してもよい。 Alternatively, the recognition unit 12 may extract (estimate) the product occupied area A4 in the tray image IM1 by using, for example, known segmentation processing (eg, semantic segmentation). For example, the recognition unit 12 can detect each of the areas A1 to A4 as shown in FIG. 5 by performing both the object detection process and the segmentation process described above as image recognition for the tray image IM1. However, depending on the degree of light reflection, blur, etc. in the tray image IM1, it may not be possible to accurately estimate the product occupied area A4. In that case, the recognition unit 12 may omit the process of estimating the product occupied area A4.

商品占有領域A4が推定された場合には、各頂点を商品占有領域A4の内側に位置する内包頂点(すなわち、トレー画像IM1において、トレー22の領域と接さずに他の商品Gの領域と接する頂点)と、トレー22の領域と接する外接頂点と、に区別して把握することが可能となる。図5における頂点領域A31は、内包頂点に対応する頂点領域である。この例では、内包頂点は、商品G2の頂点のうち商品G1の領域と接する頂点(言い換えれば、商品G1と重なる頂点)である。それ以外の頂点領域A3は、外接頂点に対応する頂点領域である。 When the product occupancy area A4 has been estimated, it becomes possible to distinguish and grasp each vertex as an included vertex located inside the product occupancy area A4 (i.e., a vertex in the tray image IM1 that does not come into contact with the area of the tray 22 but comes into contact with the area of another product G) and a circumscribed vertex that comes into contact with the area of the tray 22. The vertex area A31 in FIG. 5 is a vertex area corresponding to an included vertex. In this example, the included vertex is a vertex of product G2 that comes into contact with the area of product G1 (in other words, a vertex that overlaps with product G1). The other vertex area A3 is a vertex area corresponding to a circumscribed vertex.

認識部12は、例えば、商品占有領域A4の内側であって、且つ、商品占有領域A4を規定する境界線(図5の一点鎖線部)から予め定められた閾値距離以上離れた頂点を内包頂点として検出してもよい。この場合、商品占有領域A4の十分内側にある頂点を内包頂点として検出することができるため、内包頂点の誤検出(すなわち、実際には内包頂点に該当しない頂点を内包頂点として検出すること)の発生を抑制することができる。 For example, the recognition unit 12 identifies, as connotative vertices, vertices that are inside the product occupancy area A4 and are separated by a predetermined threshold distance or more from the boundary line that defines the product occupancy area A4 (dotted chain line in FIG. 5). It may be detected as In this case, since vertices that are sufficiently inside the product occupation area A4 can be detected as connotative vertices, erroneous detection of connotative vertices (that is, detecting vertices that do not actually correspond to connotative vertices as connotative vertices) can be avoided. The occurrence can be suppressed.

(二重載せ状態の第3の例)
図6は、二重載せ状態の第3の例を示す図である。第3の例は、商品G2によって商品G1の2つの頂点が覆い隠されている点において、第2の例(図5)と相違している。この場合、図6に示されるように、認識部12によって、2つの商品G1,G2の全体を含むように設定された商品領域A2と、6つの頂点領域A3(商品G1の2つの頂点領域A3及び商品G2の4つの頂点領域A3)と、が検出される。ここで、認識部12によって上述した商品占有領域A4が推定された場合には、1つの内包頂点(すなわち、商品G2の頂点のうち商品G1の領域と接する頂点)に対応する頂点領域A31と、それ以外の5つの外接頂点に対応する頂点領域A3と、が区別されて検出される。
(Third example of double loading)
FIG. 6 is a diagram showing a third example of a double loading state. The third example differs from the second example (FIG. 5) in that two vertices of the product G1 are covered up by the product G2. In this case, as shown in FIG. and four vertex areas A3) of product G2 are detected. Here, when the above-described product occupation area A4 is estimated by the recognition unit 12, a vertex area A31 corresponding to one connotative vertex (that is, a vertex that contacts the area of product G1 among the vertices of product G2), Vertex areas A3 corresponding to the other five circumscribed vertices are detected separately.

(二重載せ状態の第4の例)
図7は、二重載せ状態の第4の例を示す図である。この例では、一方の商品G1の上に、商品G1よりも一回り小さい商品G2が完全に重なった状態で、2つの商品G1,G2がトレー22上に載置されている。平面視において、商品G2は、商品G1の外側にはみ出さないように、商品G1の内側に配置されている。この場合、図7に示されるように、認識部12によって、2つの商品G1,G2の全体(すなわち、商品G1)を含むように設定された商品領域A2と、8つの頂点領域A3(商品G1の4つの頂点領域A3及び商品G2の4つの頂点領域A3)と、が検出される。ここで、認識部12によって上述した商品占有領域A4が推定された場合には、4つの内包頂点(すなわち、商品G2の各頂点)に対応する頂点領域A31と、4つの外接頂点(すなわち、商品G1の各頂点)に対応する頂点領域A3と、が区別されて検出される。
(Fourth example of double loading)
FIG. 7 is a diagram showing a fourth example of a double loading state. In this example, two products G1 and G2 are placed on the tray 22, with product G2, which is slightly smaller than product G1, completely overlapping one product G1. In plan view, the product G2 is arranged inside the product G1 so as not to protrude outside the product G1. In this case, as shown in FIG. The four vertex areas A3 of the product G2 and the four vertex areas A3 of the product G2 are detected. Here, when the above-described product occupation area A4 is estimated by the recognition unit 12, the vertex area A31 corresponding to the four connotative vertices (i.e., each vertex of the product G2) and the four circumscribed vertices (i.e., the product A vertex area A3 corresponding to each vertex of G1) is detected separately.

判定部13は、認識部12による頂点の検出結果に基づいて、トレー22に複数の商品Gが載置されているか否か(すなわち、二重載せの状態であるか否か)を判定する。 The determination unit 13 determines whether or not a plurality of products G are placed on the tray 22 (that is, whether or not they are double loaded) based on the apex detection result by the recognition unit 12.

例えば、判定部13は、認識部12により検出された頂点の数(すなわち、頂点領域A3の数)に基づいて、二重載せの状態であるか否かを判定してもよい。一例として、商品GがN角形状であるとき、判定部13は、認識部12により検出された頂点領域A3の数がNと1以上の所定の閾値dとの和(すなわち、N+d)以上である場合に、二重載せの状態であると判定してもよい。ここで、Nは3以上の整数であり、本実施形態ではNは4である。 For example, the determination unit 13 may determine whether or not there is a double stacking state based on the number of vertices detected by the recognition unit 12 (that is, the number of vertex areas A3). As an example, when the product G has an N-gon shape, the determination unit 13 determines that the number of vertex areas A3 detected by the recognition unit 12 is greater than or equal to the sum of N and a predetermined threshold value d of 1 or more (i.e., N+d). In some cases, it may be determined that there is double loading. Here, N is an integer of 3 or more, and in this embodiment, N is 4.

図3の右部のように、トレー22上に1つの商品Gのみが載置されている場合には、認識部12により検出される頂点領域A3の数はNと一致する。また、トレー22が空の場合には、認識部12により検出される頂点領域A3の数は0となる。一方、図4~図7に示される例のように、二重載せの状態では、認識部12により検出される頂点領域A3の数は、Nよりも大きい数(すなわち、「N+1」以上)となる。具体的には、図4の例(第1の例)では、検出される頂点領域A3の数は8(=N+4)であり、図5の例(第2の例)では、検出される頂点領域A3の数は7(=N+3)であり、図6の例(第3の例)では、検出される頂点領域A3の数は6(=N+2)であり、図7の例(第4の例)では、検出される頂点領域A3の数は8(=N+4)である。従って、上記構成によれば、検出された頂点数と「N+d」とを比較することによって、二重載せの状態であるか否かを適切に判定することができる。 As shown in the right part of FIG. 3, when only one product G is placed on the tray 22, the number of vertex areas A3 detected by the recognition unit 12 matches N. Furthermore, when the tray 22 is empty, the number of vertex areas A3 detected by the recognition unit 12 is zero. On the other hand, as in the examples shown in FIGS. 4 to 7, in the double-mounted state, the number of vertex areas A3 detected by the recognition unit 12 is a number larger than N (that is, "N+1" or more). Become. Specifically, in the example of FIG. 4 (first example), the number of detected vertex areas A3 is 8 (=N+4), and in the example of FIG. The number of regions A3 is 7 (=N+3), and in the example of FIG. 6 (third example), the number of detected vertex regions A3 is 6 (=N+2), and in the example of FIG. In example), the number of detected vertex areas A3 is 8 (=N+4). Therefore, according to the above configuration, by comparing the detected number of vertices with "N+d", it is possible to appropriately determine whether or not there is a double loading state.

ここで、閾値dは2であってもよい。認識部12による画像認識において、頂点領域A3は、誤検出される可能性がある。具体的には、実際には商品Gの頂点に対応しない領域が、誤って頂点領域A3として検出される場合があり得る。閾値dを2とすることにより、このような頂点領域A3の誤検出に起因して生じる二重載せの誤判定を抑制することができる。例えば、トレー22上に商品Gが1つだけ載置されているにもかかわらず、認識部12によって実際には存在しない頂点に対応する頂点領域A3が1つ誤検出された場合について考える。この場合、認識部12により検出された頂点領域A3の数は5つとなる。閾値dを2とした場合、判定部13は、認識部12により検出された頂点領域A3の数が6つ以上である場合に二重載せであると判定することになる。その結果、上記場合に判定部13が誤って二重載せであると判定してしまうことを防止できる。 Here, the threshold value d may be 2. In image recognition by the recognition unit 12, there is a possibility that the vertex area A3 will be erroneously detected. Specifically, an area that does not actually correspond to the apex of the product G may be mistakenly detected as the apex area A3. By setting the threshold value d to 2, it is possible to suppress the erroneous determination of double overlapping that occurs due to such erroneous detection of the vertex area A3. For example, consider a case where, although only one product G is placed on the tray 22, the recognition unit 12 erroneously detects one vertex area A3 corresponding to a vertex that does not actually exist. In this case, the number of vertex areas A3 detected by the recognition unit 12 is five. When the threshold value d is set to 2, the determination unit 13 determines that double loading occurs when the number of vertex areas A3 detected by the recognition unit 12 is six or more. As a result, it is possible to prevent the determining unit 13 from erroneously determining that there is double loading in the above case.

なお、二重載せの状態において、認識部12により検出される頂点領域A3の数が「N+1」となる場合もあり得る。例えば、図7の例のように一方の商品G1が他方の商品G2よりも大きい場合であって、商品G1が商品G2の「N-1」個(ここでは3つ)の頂点を覆い隠すように商品G2の上に重なる場合には、認識部12によって検出される頂点領域A3の数は「N+1」個(ここでは5つ)となる。ただし、このような状態が発生する可能性は比較的低いと考えられる。従って、閾値dを2とすることによって二重載せの判定漏れ(実際には二重載せの状態であるにもかかわらず二重載せであると判定しないこと)が生じ得るものの、そのデメリットよりも、上述したような二重載せの誤判定(実際には二重載せの状態でないものを二重載せと判定すること)を抑制できるメリットの方が大きいと考えられる。 Note that in the double-mounted state, the number of vertex areas A3 detected by the recognition unit 12 may be "N+1". For example, as in the example in FIG. 7, one product G1 is larger than the other product G2, and product G1 covers "N-1" (here, three) vertices of product G2. When the vertex area A3 overlaps the product G2, the number of vertex areas A3 detected by the recognition unit 12 is "N+1" (here, five). However, the possibility of such a situation occurring is considered to be relatively low. Therefore, although setting the threshold value d to 2 may result in failure to determine double loading (not determining that double loading is actually the case), this disadvantage is outweighed by the , it is thought that the advantage of being able to suppress the above-mentioned erroneous determination of double loading (determining that there is double loading when it is not actually double loading) is greater.

なお、二重載せの判定の正確性(適合率)よりも再現率を重視する場合(すなわち、誤判定が生じることをある程度許容して判定漏れが生じることを極力防止したい場合)には、閾値dを1とすればよい。逆に、二重載せの判定の再現率よりも適合率を重視する場合(すなわち、判定漏れが生じることをある程度許容して誤判定が生じることを極力防止したい場合)には、閾値dを大きくすればよい。このように、閾値dは、実現したい二重載せの判定の適合率及び再現率のバランスに応じて決定されればよい。また、閾値dは、認識部12による画像認識の精度に応じて決定されてもよい。例えば、認識部12によって頂点領域A3が誤検出される確率が比較的低い場合には、閾値dを小さくし、認識部12によって頂点領域A3が誤検出される確率が比較的高い場合には、閾値dを大きくしてもよい。 Note that if you place more emphasis on recall than accuracy (precision rate) in determining double loading (in other words, if you want to allow a certain amount of false positives to occur and prevent false positives as much as possible), set the threshold value. d may be set to 1. On the other hand, if you place more emphasis on the precision rate than the recall rate for determining double loading (in other words, if you want to allow a certain degree of omission of judgments and prevent erroneous judgments as much as possible), set the threshold value d to a large value. do it. In this way, the threshold value d may be determined depending on the balance between the precision rate and the recall rate of the double loading determination that is desired to be achieved. Moreover, the threshold value d may be determined according to the accuracy of image recognition by the recognition unit 12. For example, if the probability that the vertex area A3 is erroneously detected by the recognition unit 12 is relatively low, the threshold d is set small; if the probability that the recognition unit 12 is erroneously detected by the vertex area A3 is relatively high, then The threshold value d may be increased.

また、判定部13は、認識部12により検出された頂点領域A3のうち商品領域A2の外側で検出された頂点領域A32(図8参照)を除外して、二重載せの状態であるか否かを判定してもよい。例えば、図8に示されるように、トレー22の商品載置面の傷、模様、カメラ30による撮影時における光の反射の具合等によって、商品領域A2の外側の領域(トレー22に対応する領域)において、頂点領域A3が誤検出される場合がある。上述したように閾値dを2以上とすることによっても、このような頂点領域A3が検出された場合に二重載せの誤判定が生じることを抑制できるが、判定部13は、上述したように商品領域A2の外側で検出された頂点領域A3を除外する(無効にする)ことによっても、二重載せの誤判定が生じることを抑制できる。なお、頂点領域A3の誤検出は、商品領域A2の内側で生じることもあり得るため、閾値dを2以上に設定する処理と、商品領域A2の外側で検出された頂点領域A32を除外する処理と、は併用されてもよい。 Further, the determination unit 13 excludes the vertex area A32 (see FIG. 8) detected outside the product area A2 from the vertex area A3 detected by the recognition unit 12, and determines whether or not it is a double-loaded state. It may be determined whether For example, as shown in FIG. 8, the area outside the product area A2 (the area corresponding to the tray 22 ), the vertex area A3 may be erroneously detected. As described above, by setting the threshold value d to 2 or more, it is possible to suppress the occurrence of a false determination of double loading when such a vertex area A3 is detected. However, as described above, the determination unit 13 By excluding (invalidating) the vertex area A3 detected outside the product area A2, it is also possible to suppress the occurrence of erroneous determination of double loading. In addition, since erroneous detection of the vertex area A3 may occur inside the product area A2, a process of setting the threshold value d to 2 or more and a process of excluding the vertex area A32 detected outside the product area A2 are performed. and may be used together.

また、判定部13は、認識部12によって商品占有領域A4(図5参照)の内側において頂点領域A3(すなわち、内包頂点に対応する頂点領域A31)が検出された場合に、二重載せであると判定してもよい。商品占有領域A4の内側で検出された頂点領域A31は、当該頂点領域A31が誤検出によるものではない場合には、一の商品G上に重なる他の商品Gの頂点に対応する頂点領域であることになる。従って、上記構成によれば、内包頂点が検出されたことに基づいて、二重載せの状態を適切に検知することができる。 Further, when the recognition unit 12 detects the apex area A3 (that is, the apex area A31 corresponding to the connotative apex) inside the product occupied area A4 (see FIG. 5), the determination unit 13 determines that there is double loading. It may be determined that The vertex area A31 detected inside the product occupied area A4 is a vertex area corresponding to the vertex of another product G that overlaps one product G, if the vertex region A31 is not due to erroneous detection. It turns out. Therefore, according to the above configuration, it is possible to appropriately detect the state of double loading based on the detection of the connotative vertex.

判定部13は、上述した判定結果を、例えば検知装置10が備えるディスプレイ等の出力装置に出力してもよい。例えば、二重載せの状態が判定された場合に、判定部13は、二重載せの状態が判定されたトレー22のトレーIDと共に、当該トレーIDに示されるトレー22において二重載せの状態が発生していることを示す情報を、ディスプレイ等に出力してもよい。或いは、判定部13は、検知装置10が備えるスピーカ等の出力装置からアラート(警報)を出力したり、現場に設置されたパトランプを点灯させたりすることによって、異常状態(二重載せの状態)が検知されたことを現場の作業員等に通知してもよい。 The determination unit 13 may output the determination result described above to an output device such as a display included in the detection device 10, for example. For example, when a double loading state is determined, the determining unit 13 determines that the double loading state is detected in the tray 22 indicated by the tray ID along with the tray ID of the tray 22 for which the double loading state has been determined. Information indicating that this has occurred may be output to a display or the like. Alternatively, the determination unit 13 detects an abnormal state (double loading state) by outputting an alert (warning) from an output device such as a speaker included in the detection device 10 or by lighting up a police lamp installed at the scene. It may also be possible to notify on-site workers, etc. that the detection has been detected.

次に、図9のフローチャートを参照して、検知装置10の動作の一例について説明する。 Next, an example of the operation of the detection device 10 will be described with reference to the flowchart in FIG.

ステップS1において、取得部11は、トレー画像IM1(図3参照)を取得する。トレー画像IM1は、撮影エリアSA(図2参照)を通過するトレー22をカメラ30が撮影することによって得られた画像である。 In step S1, the acquisition unit 11 acquires a tray image IM1 (see FIG. 3). The tray image IM1 is an image obtained by the camera 30 photographing the tray 22 passing through the photographing area SA (see FIG. 2).

ステップS2において、認識部12は、トレー画像IM1に対する画像認識を実行することにより、ID領域A1、商品領域A2、及び頂点領域A3を検出する。なお、トレー22に商品Gが載置されていない場合には、ID領域A1のみが検出される。また、認識部12は、商品占有領域A4(図5参照)を更に検出(推定)してもよい。 In step S2, the recognition unit 12 detects the ID area A1, product area A2, and vertex area A3 by performing image recognition on the tray image IM1. Note that when the product G is not placed on the tray 22, only the ID area A1 is detected. Further, the recognition unit 12 may further detect (estimate) the product occupied area A4 (see FIG. 5).

ステップS3において、判定部13は、ステップS2における頂点(頂点領域A3)の検出結果に基づいて、トレー22に複数の商品Gが載置されているか否か(すなわち、二重載せの状態であるか否か)を判定する。 In step S3, the determination unit 13 determines whether or not a plurality of products G are placed on the tray 22 (that is, in a double-loaded state) based on the detection result of the apex (vertex area A3) in step S2. whether or not).

図10のフローチャートを参照して、判定部13による判定処理(図9のステップS3)の手順の一例について説明する。 An example of the procedure of the determination process (step S3 in FIG. 9) by the determination unit 13 will be described with reference to the flowchart in FIG. 10.

ステップS31において、判定部13は、認識部12によって商品占有領域A4が推定されたか否かを判定する。商品占有領域A4が推定されている場合(ステップS31:YES)には、判定部13は、ステップS32の処理に進む。一方、商品占有領域A4が推定されていない場合(ステップS31:NO)には、判定部13は、ステップS34の処理に進む。 In step S31, the determination unit 13 determines whether the recognition unit 12 has estimated the product occupation area A4. If the product occupied area A4 is estimated (step S31: YES), the determination unit 13 proceeds to the process of step S32. On the other hand, if the product occupied area A4 is not estimated (step S31: NO), the determination unit 13 proceeds to the process of step S34.

ステップS32において、判定部13は、認識部12によって商品占有領域A4の内側で頂点が検出されたか否かを判定する。すなわち、判定部13は、内包頂点に対応する頂点領域A31が検出されたか否かを判定する。頂点領域A31が検出されている場合(ステップS32:YES)には、判定部13は、二重載せの状態であると判定する(ステップS33)。一方、頂点領域A31が検出されていない場合(ステップS32:NO)には、判定部13は、ステップS34の処理に進む。 In step S32, the determination unit 13 determines whether the recognition unit 12 detects a vertex inside the product occupied area A4. That is, the determining unit 13 determines whether the vertex area A31 corresponding to the connotative vertex has been detected. If the apex region A31 is detected (step S32: YES), the determination unit 13 determines that the state is double stacked (step S33). On the other hand, if the vertex area A31 is not detected (step S32: NO), the determination unit 13 proceeds to the process of step S34.

ステップS34において、判定部13は、認識部12によって商品領域A2の外側で頂点(すなわち、頂点領域A32(図8参照))が検出されたか否かを判定する。頂点領域A32が検出されている場合(ステップS34:YES)には、判定部13は、当該頂点領域A32を除外し(ステップS35)、ステップS36の処理に進む。一方、頂点領域A32が検出されていない場合(ステップS34:NO)には、判定部13は、上記ステップS35の処理をスキップして、ステップS36の処理に進む。 In step S34, the determination unit 13 determines whether the recognition unit 12 has detected a vertex (that is, the vertex area A32 (see FIG. 8)) outside the product area A2. If the vertex region A32 is detected (step S34: YES), the determination unit 13 excludes the vertex region A32 (step S35), and proceeds to the process of step S36. On the other hand, if the vertex area A32 is not detected (step S34: NO), the determination unit 13 skips the process of step S35 and proceeds to the process of step S36.

ステップS36において、判定部13は、認識部12によって検出された頂点数(頂点領域A3の数)がN+d以上であるか否かを判定する(ステップS36)。検出された頂点数がN+d以上である場合(ステップS36:YES)、判定部13は、二重載せの状態であると判定する(ステップS33)。一方、検出された頂点数がN+d未満の場合(ステップS36:NO)、判定部13は、正常状態であると判定する(ステップS37)。 In step S36, the determination unit 13 determines whether the number of vertices (the number of vertex areas A3) detected by the recognition unit 12 is equal to or greater than N+d (step S36). If the number of detected vertices is equal to or greater than N+d (step S36: YES), the determination unit 13 determines that the state is double stacked (step S33). On the other hand, if the number of detected vertices is less than N+d (step S36: NO), the determination unit 13 determines that the state is normal (step S37).

なお、認識部12による商品占有領域A4(図5参照)の推定処理が省略される(或いは実行できない)ことが予め判明している場合等には、図10におけるステップS31及びS32は省略されてもよい。この場合、判定処理は、ステップS34から開始されることになる。また、商品領域A2の外側で検出された頂点領域A32を除外する処理は必須ではない。すなわち、図10におけるステップS34及びS35は、省略されてもよい。 Note that if it is known in advance that the process of estimating the product occupied area A4 (see FIG. 5) by the recognition unit 12 will be omitted (or cannot be performed), steps S31 and S32 in FIG. 10 may be omitted. Good too. In this case, the determination process will start from step S34. Further, the process of excluding the vertex area A32 detected outside the product area A2 is not essential. That is, steps S34 and S35 in FIG. 10 may be omitted.

また、判定部13は、内包頂点に対応する頂点領域A32が検出されたか否かのみに基づいて、二重載せであるか否かを判定してもよい。すなわち、判定部13は、図10におけるステップS31~S33のみを実行し、図10におけるステップS34~S37を省略してもよい。この場合、判定部13は、図4に示される態様(2つの商品G1,G2同士が重なっていない態様)の二重載せを検知することはできないものの、図5~図7に示した態様の二重載せを検知することができる。従って、例えば、トレー22の大きさに対して商品Gが十分に大きく、トレー22上に2つの商品Gが載置されると必然的に2つの商品G同士が重なってしまう場合(すなわち、図4に示される態様の二重載せが発生し得ない場合)には、判定部13は、図10におけるステップS31~S33のみを実行することによって、適切に二重載せを検知することができる。 Further, the determining unit 13 may determine whether or not there is double loading based only on whether or not the vertex area A32 corresponding to the connotative vertex is detected. That is, the determination unit 13 may execute only steps S31 to S33 in FIG. 10 and omit steps S34 to S37 in FIG. In this case, although the determination unit 13 cannot detect double loading in the manner shown in FIG. 4 (the manner in which the two products G1 and G2 do not overlap), Double loading can be detected. Therefore, for example, if the product G is sufficiently large relative to the size of the tray 22 and two products G are placed on the tray 22, the two products G will inevitably overlap each other (i.e., 4), the determination unit 13 can appropriately detect double loading by executing only steps S31 to S33 in FIG. 10.

以上説明した検知装置10においては、商品Gが載置された状態で搬送されるトレー22の画像(トレー画像IM1)に対する画像認識結果から、トレー画像IM1に含まれる商品Gの頂点(角部)に対応する頂点領域A3が検出される。そして、頂点領域A3の検出結果(例えば、頂点数)に基づいて、トレー22に複数の商品Gが載置されている状態(いわゆる二重載せの状態)であるか否かが判定される。検知装置10によれば、トレー22の上方から撮影されたトレー画像IM1に対する比較的簡易な解析処理によって異常状態(上述した二重載せの状態)を検知することができる。すなわち、物品搬送(商品Gの搬送)に関する異常状態(二重載せの状態)を、簡易な設備で検知することができる。 In the detection device 10 described above, based on the image recognition result for the image of the tray 22 conveyed with the product G placed thereon (tray image IM1), the apex (corner) of the product G included in the tray image IM1 is detected. A vertex area A3 corresponding to is detected. Then, based on the detection result (for example, the number of vertices) of the vertex area A3, it is determined whether or not a plurality of products G are placed on the tray 22 (so-called double-loaded state). According to the detection device 10, an abnormal state (the above-mentioned double loading state) can be detected by a relatively simple analysis process on the tray image IM1 taken from above the tray 22. That is, an abnormal state (double loading state) regarding article transportation (transportation of product G) can be detected with simple equipment.

物流センタ等のソーターシステム20のように商品Gを高速に仕分けする必要がある場合には、トレー22の搬送速度が比較的速い。このため、例えばRGB-Dセンサ等によってトレー22内の商品Gの3次元形状を捉えることは困難である。一方、検知装置10では、上述したような3次元形状を認識するための特別なセンサ等を用いずに、カメラ30によって取得された2次元のトレー画像IM1を用いて異常状態(二重載せ)を検知することができる。 When it is necessary to sort the products G at high speed, such as in a sorter system 20 in a distribution center, etc., the transport speed of the trays 22 is relatively high. Therefore, it is difficult to capture the three-dimensional shape of the product G in the tray 22 using, for example, an RGB-D sensor. On the other hand, in the detection device 10, the abnormal state (double loading) is detected using the two-dimensional tray image IM1 acquired by the camera 30, without using a special sensor etc. for recognizing the three-dimensional shape as described above. can be detected.

また、トレー22には、トレー22を識別するためのトレーIDが記載されたID領域が設けられている(図3参照)。そして、認識部12は、頂点領域A3だけでなく、ID領域A1も検出する。この場合、トレー22毎の判定結果を容易に管理することが可能となる。例えば、二重載せが検知されたトレー22をトレーIDによって特定できる。 Further, the tray 22 is provided with an ID area in which a tray ID for identifying the tray 22 is written (see FIG. 3). Then, the recognition unit 12 detects not only the vertex area A3 but also the ID area A1. In this case, it becomes possible to easily manage the determination results for each tray 22. For example, the tray 22 on which double loading was detected can be identified by the tray ID.

なお、検知装置10によって二重載せを判定される対象は、必ずしも消費者に販売されることが目的とされた商品Gでなくてもよく、商品用途以外の物品であってもよい。また、上記実施形態では「N=4」の場合(すなわち、商品Gが平面視において四角形状である場合)について説明したが、商品Gは、三角形状、五角形状等の四角形状以外の形状であってもよい。また、トレー画像IM1の種類は特に限定されない。トレー画像IM1は、上述した画像解析が可能な画像であればよく、例えばX線を用いて取得されたX線画像等であってもよい。 Note that the object for which double loading is determined by the detection device 10 does not necessarily have to be the product G intended to be sold to consumers, and may be an object other than the product intended for use as a product. Furthermore, although the above embodiment describes the case where "N=4" (that is, the case where the product G has a quadrangular shape in plan view), the product G may have a shape other than a quadrilateral, such as a triangular shape or a pentagonal shape. There may be. Further, the type of tray image IM1 is not particularly limited. The tray image IM1 may be any image as long as it can be subjected to the image analysis described above, and may be, for example, an X-ray image acquired using X-rays.

なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 It should be noted that the block diagram used to explain the above embodiment shows blocks in functional units. These functional blocks (components) are realized by any combination of at least one of hardware and software. Furthermore, the method for realizing each functional block is not particularly limited. That is, each functional block may be realized using one physically or logically coupled device, or may be realized using two or more physically or logically separated devices directly or indirectly (e.g. , wired, wireless, etc.) and may be realized using a plurality of these devices. The functional block may be realized by combining software with the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, exploration, confirmation, reception, transmission, output, access, resolution, selection, selection, establishment, comparison, assumption, expectation, consideration, These include, but are not limited to, broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, and assigning. I can't.

例えば、本開示の一実施の形態における検知装置10は、本開示の通信制御方法を行うコンピュータとして機能してもよい。図11は、本開示の一実施の形態に係る検知装置10のハードウェア構成の一例を示す図である。上述の検知装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the detection device 10 in an embodiment of the present disclosure may function as a computer that performs the communication control method of the present disclosure. FIG. 11 is a diagram illustrating an example of the hardware configuration of the detection device 10 according to an embodiment of the present disclosure. The above-mentioned detection device 10 may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。検知装置10のハードウェア構成は、図1に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In addition, in the following description, the word "apparatus" can be read as a circuit, a device, a unit, etc. The hardware configuration of the detection device 10 may be configured to include one or more of each device shown in FIG. 1, or may be configured not to include some of the devices.

検知装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 Each function in the detection device 10 is implemented by loading predetermined software (programs) onto hardware such as the processor 1001 and memory 1002, so that the processor 1001 performs calculations, controls communication by the communication device 1004, and controls communication by the communication device 1004. This is realized by controlling at least one of data reading and writing in the storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。 The processor 1001, for example, operates an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、認識部12は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 Furthermore, the processor 1001 reads programs (program codes), software modules, data, and the like from at least one of the storage 1003 and the communication device 1004 to the memory 1002, and executes various processes in accordance with these. As the program, a program that causes a computer to execute at least part of the operations described in the above embodiments is used. For example, the recognition unit 12 may be realized by a control program stored in the memory 1002 and operated in the processor 1001, and other functional blocks may be similarly realized. Although the various processes described above have been described as being executed by one processor 1001, they may be executed by two or more processors 1001 simultaneously or sequentially. Processor 1001 may be implemented by one or more chips. Note that the program may be transmitted from a network via a telecommunications line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る通信制御方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and includes at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. may be done. Memory 1002 may be called a register, cache, main memory, or the like. The memory 1002 can store executable programs (program codes), software modules, and the like to implement a communication control method according to an embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, such as an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (such as a compact disk, a digital versatile disk, or a Blu-ray disk). (registered trademark disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, etc. Storage 1003 may also be called an auxiliary storage device. The storage medium mentioned above may be, for example, a database including at least one of memory 1002 and storage 1003, a server, or other suitable medium.

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication device 1004 is hardware (transmission/reception device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (eg, keyboard, mouse, microphone, switch, button, sensor, etc.) that accepts input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. Note that the input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be configured using a single bus, or may be configured using different buses for each device.

また、検知装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 The detection device 10 also includes hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). A part or all of each functional block may be realized by the hardware. For example, processor 1001 may be implemented using at least one of these hardwares.

次に、コンピュータを、本実施形態の検知装置10として機能させるための検知プログラムについて説明する。図12は、検知プログラムPの構成を示す図である。 Next, a detection program for causing a computer to function as the detection device 10 of this embodiment will be described. FIG. 12 is a diagram showing the configuration of the detection program P.

検知プログラムPは、検知装置10における上記の処理を統括的に制御するメインモジュールm10、取得モジュールm11、認識モジュールm12、及び判定モジュールm13を有する。各モジュールm11~m13により、検知装置10における取得部11、認識部12、及び判定部13が実現される。なお、検知プログラムPは、通信回線等の伝送媒体を介して伝送される態様であってもよいし、図12に示されるように、記録媒体Mに記憶される態様であってもよい。 The detection program P includes a main module m10 that comprehensively controls the above processing in the detection device 10, an acquisition module m11, a recognition module m12, and a determination module m13. Each of the modules m11 to m13 implements the acquisition unit 11, recognition unit 12, and determination unit 13 in the detection device 10. Note that the detection program P may be transmitted via a transmission medium such as a communication line, or may be stored in a recording medium M as shown in FIG.

以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although this embodiment has been described in detail above, it is clear for those skilled in the art that this embodiment is not limited to the embodiment described in this specification. This embodiment can be implemented as modifications and changes without departing from the spirit and scope of the present invention as defined by the claims. Therefore, the description in this specification is for the purpose of illustrative explanation and does not have any restrictive meaning with respect to this embodiment.

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be rearranged in order as long as there is no contradiction. For example, the methods described in this disclosure use an example order to present elements of the various steps and are not limited to the particular order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input/output information may be stored in a specific location (eg, memory) or may be managed using a management table. Information etc. to be input/output may be overwritten, updated, or additionally written. The output information etc. may be deleted. The input information etc. may be transmitted to other devices.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 Judgment may be made using a value expressed by 1 bit (0 or 1), a truth value (Boolean: true or false), or a comparison of numerical values (for example, a predetermined value). (comparison with a value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described in this disclosure may be used alone, may be used in combination, or may be switched and used in accordance with execution. In addition, notification of prescribed information (for example, notification of "X") is not limited to being done explicitly, but may also be done implicitly (for example, not notifying the prescribed information). Good too.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software includes instructions, instruction sets, code, code segments, program code, programs, subprograms, software modules, whether referred to as software, firmware, middleware, microcode, hardware description language, or by any other name. , should be broadly construed to mean an application, software application, software package, routine, subroutine, object, executable, thread of execution, procedure, function, etc.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Additionally, software, instructions, information, etc. may be sent and received via a transmission medium. For example, if the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, digital subscriber line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to When transmitted from a server or other remote source, these wired and/or wireless technologies are included within the definition of transmission medium.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc., which may be referred to throughout the above description, may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may also be represented by a combination of

また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。 In addition, the information, parameters, etc. described in this disclosure may be expressed using absolute values, relative values from a predetermined value, or using other corresponding information. may be expressed.

上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々な情報要素は、あらゆる好適な名称によって識別できるので、これらの様々な情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。 The names used for the parameters described above are not restrictive in any respect. Furthermore, the mathematical formulas etc. using these parameters may differ from those explicitly disclosed in this disclosure. The various names assigned to these various information elements are not restrictive in any respect, as the various information elements may be identified by any suitable name.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase "based on" does not mean "based solely on" unless explicitly stated otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 As used in this disclosure, any reference to elements using the designations "first," "second," etc. does not generally limit the amount or order of those elements. These designations may be used in this disclosure as a convenient way to distinguish between two or more elements. Thus, reference to a first and second element does not imply that only two elements may be employed or that the first element must precede the second element in any way.

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 Where "include", "including" and variations thereof are used in this disclosure, these terms, like the term "comprising," are inclusive. It is intended that Furthermore, the term "or" as used in this disclosure is not intended to be exclusive or.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In this disclosure, when articles are added by translation, such as a, an, and the in English, the disclosure may include that the nouns following these articles are plural.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In this disclosure, the term "A and B are different" may mean "A and B are different from each other." Note that the term may also mean that "A and B are each different from C". Terms such as "separate" and "coupled" may also be interpreted similarly to "different."

10…検知装置、11…取得部、12…認識部、13…判定部、22…トレー、A1…ID領域、A2…商品領域(物品領域)、A3,A31,A32…頂点領域、A4…商品占有領域(物品占有領域)、G…商品(物品)、IM1…トレー画像。 DESCRIPTION OF SYMBOLS 10... Detection device, 11... Acquisition unit, 12... Recognition unit, 13... Judgment unit, 22... Tray, A1... ID area, A2... Product area (article area), A3, A31, A32... Vertex area, A4... Product Occupied area (article occupied area), G...product (article), IM1...tray image.

Claims (2)

平面視において多角形状の物品が載置された状態で搬送されるトレーを上方から撮影することにより得られたトレー画像を取得する取得部と、
前記トレー画像に対して画像認識を実行することにより、前記トレー画像に含まれる前記物品の頂点を検出する認識部と、
前記認識部による前記頂点の検出結果に基づいて、前記トレーに複数の前記物品が載置されているか否かを判定する判定部と、
を備え
前記認識部は、前記トレー画像において前記物品の全体を含む物品領域内において前記物品が占める物品占有領域を推定し、
前記判定部は、前記認識部によって前記物品占有領域の内側に位置する前記頂点である内包頂点が検出された場合に、前記トレーに複数の前記物品が載置されていると判定する、検知装置。
an acquisition unit that acquires a tray image obtained by photographing a tray conveyed with a polygonal article placed thereon from above when viewed from above;
a recognition unit that detects a vertex of the article included in the tray image by performing image recognition on the tray image;
a determination unit that determines whether a plurality of the articles are placed on the tray based on a detection result of the apex by the recognition unit;
Equipped with
The recognition unit estimates an article occupied area occupied by the article within an article area including the entire article in the tray image,
The determination unit is a detection device that determines that a plurality of the articles are placed on the tray when the recognition unit detects a connotative vertex that is the vertex located inside the article occupation area. .
前記認識部は、前記物品占有領域の内側であって、且つ、前記物品占有領域を規定する境界線から予め定められた閾値距離以上離れた前記頂点を前記内包頂点として検出する、請求項1に記載の検知装置。 2. The recognition unit detects, as the connotative vertex, the vertex that is inside the article occupation area and is away from a boundary line defining the article occupation area by a predetermined threshold distance or more. The detection device described.
JP2020111786A 2020-06-29 2020-06-29 Detection device and detection program Active JP7455010B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020111786A JP7455010B2 (en) 2020-06-29 2020-06-29 Detection device and detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020111786A JP7455010B2 (en) 2020-06-29 2020-06-29 Detection device and detection program

Publications (2)

Publication Number Publication Date
JP2022010961A JP2022010961A (en) 2022-01-17
JP7455010B2 true JP7455010B2 (en) 2024-03-25

Family

ID=80147864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020111786A Active JP7455010B2 (en) 2020-06-29 2020-06-29 Detection device and detection program

Country Status (1)

Country Link
JP (1) JP7455010B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178657A (en) 2004-12-21 2006-07-06 Hitachi Ltd System, method and program for image guarantee
JP2009181307A (en) 2008-01-30 2009-08-13 Mitsubishi Electric Corp Congestion/retention detection system
JP2014186550A (en) 2013-03-22 2014-10-02 Fujitsu Ltd Image processor, image processing method and image processing program
JP2019111640A (en) 2017-12-26 2019-07-11 ファナック株式会社 Article conveying device, robot system, and article conveying method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178657A (en) 2004-12-21 2006-07-06 Hitachi Ltd System, method and program for image guarantee
JP2009181307A (en) 2008-01-30 2009-08-13 Mitsubishi Electric Corp Congestion/retention detection system
JP2014186550A (en) 2013-03-22 2014-10-02 Fujitsu Ltd Image processor, image processing method and image processing program
JP2019111640A (en) 2017-12-26 2019-07-11 ファナック株式会社 Article conveying device, robot system, and article conveying method

Also Published As

Publication number Publication date
JP2022010961A (en) 2022-01-17

Similar Documents

Publication Publication Date Title
Muja et al. Rein-a fast, robust, scalable recognition infrastructure
WO2019107157A1 (en) Shelf-allocation information generating device and shelf-allocation information generating program
US20200211221A1 (en) Object recognition device and object recognition method
CN109949331B (en) Container edge detection method and device
JP6245880B2 (en) Information processing apparatus, information processing method, and program
JPH0916043A (en) Picture processor and picture processing method
US20220383128A1 (en) Image-based anomaly detection based on a machine learning analysis of an object
JP6903966B2 (en) Information processing equipment, information processing systems and programs
JPH09251544A (en) Work edge detecting image processor
Lin et al. Defect contour detection of complex structural chips
JP7455010B2 (en) Detection device and detection program
JP2018081629A (en) Determination device, method for determination, and determination program
JP6250993B2 (en) Sensor information management apparatus and sensor information management method
JP2019185684A (en) Display state determination system
JPWO2019003689A1 (en) Projection instructing device, luggage sorting system, and projection instructing method
CN114359685A (en) Training method, device and equipment for logistics piece recognition model
US11989874B2 (en) Multi-tier PCBA integrity validation process
CN113978987B (en) Pallet object packaging and picking method, device, equipment and medium
US20210049396A1 (en) Optical quality control
JPWO2019003687A1 (en) Projection instructing device, luggage sorting system, and projection instructing method
CN111242963A (en) Container contour detection method and device
US11164034B2 (en) Image analysis apparatus and image analysis method
CN114220011A (en) Goods quantity identification method and device, electronic equipment and storage medium
US20220284700A1 (en) Task appropriateness determination apparatus
US20190259142A1 (en) Devices, systems, and methods for spatial-neighborhood consistency in feature detection in image data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240312

R150 Certificate of patent or registration of utility model

Ref document number: 7455010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150