JP6151562B2 - Article identification system and its program - Google Patents

Article identification system and its program Download PDF

Info

Publication number
JP6151562B2
JP6151562B2 JP2013109431A JP2013109431A JP6151562B2 JP 6151562 B2 JP6151562 B2 JP 6151562B2 JP 2013109431 A JP2013109431 A JP 2013109431A JP 2013109431 A JP2013109431 A JP 2013109431A JP 6151562 B2 JP6151562 B2 JP 6151562B2
Authority
JP
Japan
Prior art keywords
article
image
edge
distance image
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013109431A
Other languages
Japanese (ja)
Other versions
JP2014229154A (en
Inventor
雅和 森本
雅和 森本
真幸 初田
真幸 初田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Hyogo
Original Assignee
University of Hyogo
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Hyogo filed Critical University of Hyogo
Priority to JP2013109431A priority Critical patent/JP6151562B2/en
Publication of JP2014229154A publication Critical patent/JP2014229154A/en
Application granted granted Critical
Publication of JP6151562B2 publication Critical patent/JP6151562B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明はパン等の物品の識別に関し、特に画像認識により物品の種類を識別するシステムとそのプログラムとに関する。   The present invention relates to identification of articles such as bread, and more particularly to a system for identifying the type of an article by image recognition and a program thereof.

出願人は、パン、野菜、果物等の食品、あるいは透明の袋に詰めた錠剤等を、画像認識により識別することを検討している(例えば特許文献1 特開2011-170745)。問題の1つは、複数の物品が上下に重なっている場合、個々の物品へ分離することが難しい点に有る。   The applicant is considering identifying food such as bread, vegetables, fruits, or tablets packed in a transparent bag by image recognition (for example, Japanese Patent Application Laid-Open No. 2011-170745). One of the problems is that when a plurality of articles are stacked one above the other, it is difficult to separate them into individual articles.

互いに接触している物品の分離に関する先行技術を示す。特許文献2(特開2012-198848)は、パンの画像の輪郭から屈曲点を抽出し、屈曲点間を接続するように、パンとパンとの境界線の候補を発生させることを提案している。そして真の境界線では、境界線候補が短く、輪郭のくびれが深く、屈曲点の周囲で輪郭は鋭角に屈曲し、かつ境界線を直径とする円がパンからはみ出さない、と指摘している。そして特許文献2は、上記の特徴を備えている候補を境界線として、個々のパンを分離することを提案している。   2 shows prior art relating to separation of articles in contact with each other. Patent Document 2 (Japanese Patent Application Laid-Open No. 2012-198848) proposes that a bend point is extracted from an outline of a pan image and a boundary line candidate between pan and pan is generated so as to connect the bend points. Yes. And in the true boundary line, the boundary line candidate is short, the contour is deeply constricted, the contour is bent at an acute angle around the inflection point, and the circle whose diameter is the boundary line does not protrude from the pan. Yes. Patent Document 2 proposes separating individual breads using candidates having the above-described features as boundaries.

非特許文献1(第11回情報科学技術フォーラム 2012 講演論文集 H-019)は、トレイ上で互いに接触しているパンに対して、RGB画像と距離画像とを取得し、距離画像からWatershed法により、個々のパンを分離することを提案している。例えばトレイからの距離が極大となる点(カメラから見てパンが凸になる点)を開始点とし、開始点から始めて距離の勾配が小さい領域を併合して1つの領域とし、勾配が大きい部分を境界とするように、画像を分割する。パンの分離に成功する場合、1個のパンが1個の領域となる。しかしながら上下に重なった物品を分離する手法は提案されていない。   Non-Patent Document 1 (11th Information Science and Technology Forum 2012 Proceedings H-019) acquires RGB images and distance images for pans that are in contact with each other on a tray, and uses the watershed method from distance images. Proposed to separate individual breads. For example, a point where the distance from the tray becomes maximum (a point where panning is convex when viewed from the camera) is used as a starting point, and an area with a small distance gradient starting from the starting point is merged into one area. The image is divided so that is a boundary. When bread separation is successful, one bread becomes one area. However, no method has been proposed for separating vertically stacked items.

特開2011-170745JP2011-170745 特開2012-198848JP2012-198848

第11回情報科学技術フォーラム 2012 講演論文集 H-01911th Information Science and Technology Forum 2012 Proceedings H-019

この発明の課題は、上下に重なっている複数の物品を分離し、個々の物品を識別できるようにすることにある。   The subject of this invention is to isolate | separate the several articles | goods which have overlapped up and down, and to enable it to identify each article | item.

この発明の物品識別システムは、物品のカラー画像と距離画像とを取得する撮像装置と、
前記距離画像から物品の輪郭を抽出する輪郭抽出部と、
距離画像でのエッジを抽出し、前記輪郭の内部でのエッジから上下に重なっている物品を分離するエッジ抽出部と、
分離された個々の物品の種類を識別する個品識別部とを備えている。
An article identification system of the present invention includes an imaging device that acquires a color image and a distance image of an article,
An outline extraction unit for extracting the outline of the article from the distance image;
An edge extraction unit that extracts an edge in a distance image and separates an article that overlaps from the edge inside the contour;
And an individual item identification unit for identifying the type of each separated article.

またこの発明の物品識別システムのためのプログラムは、物品のカラー画像と距離画像とを取得する撮像装置と、
撮像装置からのカラー画像と距離画像とを処理し、上下に重なる物品を分離することにより、個々の物品の種類を識別するコンピュータとから成る物品識別システムのためのプログラムであって、
前記コンピュータを、
前記距離画像から物品の輪郭を抽出する輪郭抽出部と、
距離画像でのエッジを抽出し、前記輪郭の内部でのエッジから上下に重なっている物品を分離するエッジ抽出部と、
分離された個々の物品の種類を識別する個品識別部として機能させる。
A program for an article identification system of the present invention includes an imaging device that acquires a color image and a distance image of an article,
A program for an article identification system comprising a computer that processes a color image and a distance image from an imaging device and separates an article that overlaps the top and bottom to identify the type of each article,
The computer,
An outline extraction unit for extracting the outline of the article from the distance image;
An edge extraction unit that extracts an edge in a distance image and separates an article that overlaps from the edge inside the contour;
It functions as an individual item identification unit for identifying the type of each separated article.

好ましくは、他の物品の下側となる物品に対して、個品の識別用データの適用条件を、それ以外の物品の場合とは異ならせるように、個品識別部が構成されている。この明細書において、物品識別システムに関する記載は、そのまま物品識別システムのためのプログラムにも当てはまる。   Preferably, the individual item identification unit is configured so that the application condition of the individual item identification data is different from that of the other items with respect to the lower item. In this specification, the description relating to the item identification system also applies to the program for the item identification system as it is.

物品が上下に重なっていると、距離画像にエッジが生じる(図5)。このエッジは、上下に重なって未分離の物品を1個の物品と見なした際の輪郭の内側にあり、かつエッジの下側もトレイ等の背景面も高い位置にあるという特徴がある。このことから、上下に重なった物品を個々の物品に分離できる(図19)。下側の物品は一部が隠れているので、個品の識別用データをそのまま適用すると、問題が生じる。例えば物品の面積、縦横比、長さ等は、物品の一部が隠れていると正しく求めることができない。この一方で、物品表面のテクスチャ、色相等のカラーデータは、物品の一部が隠れても有効なことが多い。そこで物品の一部が隠れてると影響を受ける、物品識別用のデータに関して、他の物品の下側の物品には適用しないか、適用条件を変更することが好ましい。   When the articles overlap each other, an edge is generated in the distance image (FIG. 5). This edge is characterized in that it is inside the outline when the unseparated article is regarded as a single article, and the lower side of the edge and the background surface of the tray or the like are at a high position. From this, it is possible to separate the vertically stacked articles into individual articles (FIG. 19). Since a part of the lower article is hidden, there is a problem if the identification data for the individual product is applied as it is. For example, the area, aspect ratio, length, etc. of an article cannot be obtained correctly if a part of the article is hidden. On the other hand, color data such as the texture and hue of the article surface is often effective even when a part of the article is hidden. Therefore, it is preferable not to apply the data for identifying the article, which is affected when a part of the article is hidden, to the article under the other article or to change the application condition.

物品の高さとして、トレイ、バケット、ベルトコンベヤ等の基準平面からの高さが便利である。このため、距離画像をこれらの基準平面からの高さに変換しておくことが好ましい。しかし距離画像全体を変換せずに、高さが必要な個所のみ、個別に座標変換しても良い。物品が上下に重なる場合、物品同士が重ならずに互いに接触していることが多い。そこで接触している物品の分離についても説明するが、接触している物品の分離は実行しなくても良い。   As the height of the article, the height from a reference plane such as a tray, bucket, belt conveyor or the like is convenient. For this reason, it is preferable to convert the distance image into a height from these reference planes. However, the entire distance image may be converted without converting the entire distance image, but only at a position where a height is required. When the articles overlap one another, the articles are often in contact with each other without overlapping. Therefore, although the separation of the articles in contact will be described, the separation of the articles in contact does not have to be performed.

実施例の物品識別システムの使用環境を示す図The figure which shows the use environment of the article | item identification system of an Example. 実施例の物品識別システムのブロック図Block diagram of article identification system of embodiment 実施例の物品識別アルゴリズムを示すフローチャートThe flowchart which shows the article identification algorithm of an Example 変形例の物品識別アルゴリズムを示すフローチャートThe flowchart which shows the article | item identification algorithm of a modification. 上下に重なる物品のモデルを示す図A diagram showing a model of an article that overlaps vertically 実施例で分割線上の明度に着目する意味を示す図The figure which shows the meaning which pays attention to the lightness on the dividing line in an Example トレイ上のパンのグレイスケール画像Grayscale image of bread on tray トレイの底面からの距離画像Distance image from the bottom of the tray トレイ上のパンのグレイスケール画像Grayscale image of bread on tray パンのカラー画像のみに基づく分離結果を示す図Diagram showing separation results based only on pan color image トレイの底面からの距離画像Distance image from the bottom of the tray 距離画像の屈曲点間を距離画像の谷により接続する分割線を示す図The figure which shows the dividing line which connects between the inflection points of a distance image by the valley of a distance image 距離画像の屈曲点間を距離画像の谷により接続するように分割線を発生させ、分割線上の明度の平均値が閾値以上のものを削除した際の、パンの分離結果を示す図The figure which shows the separation result of a bread | pan when a dividing line is generated so that the inflection points of a distance image may be connected by the valley of a distance image, and the average value of the brightness on a dividing line is deleted more than a threshold ラプラスフィルタを示す図Diagram showing Laplace filter ガウシアン差分フィルタを示す図Diagram showing Gaussian difference filter 上下に重なったパンのグレイスケール画像と輪郭とを示す図A diagram showing a grayscale image and outline of a pan that overlaps vertically 図16に対応する距離画像を示す図The figure which shows the distance image corresponding to FIG. 図16の距離画像をラプラシアンフィルタで処理してエッジ画像とし、元の距離画像からエッジ画像を減算した画像を示す図The figure which shows the image which processed the distance image of FIG. 16 with the Laplacian filter, and made it an edge image, and subtracted the edge image from the original distance image. 図18の距離画像から分割候補線を発生させた際の分割結果を示す図The figure which shows the division | segmentation result at the time of generating a division | segmentation candidate line from the distance image of FIG.

以下に最適実施例を示す。この発明の範囲は、特許請求の範囲の記載に基づき、明細書の記載とこの分野での周知技術とを参酌し、当業者の理解に従って定められるべきである。   The optimum embodiment is shown below. The scope of the present invention should be determined according to the understanding of those skilled in the art based on the description of the scope of the claims, taking into account the description of the specification and well-known techniques in this field.

図1において、2は物品識別装置で、パーソナルコンピュータ等から成り、例えばテーブル4に収容され、アーム5に取り付けられた撮像装置6と共に、物品識別システムを構成する。8はカラーカメラで、RGB画像を撮像する。9はIR(赤外線)プロジェクタ、10はIR(赤外線)カメラで、プロジェクタ9から、トレイ11とパン12,13とに投影された格子点を、IRカメラ10で撮像し、カメラ10からの距離を求める。撮像装置6は、トレイ11及び互いに接触するパン12,13等の、距離画像と、RGB画像等のカラー画像とを出力する。トレイ11の代わりに、バケット等の容器、あるいはベルトコンベヤ等を用いても良く、パンの代わりに野菜、果物、魚類、肉類、錠剤等を識別しても良い。また上下に重なる複数個の物品を識別するが、1個の物品を識別することがあっても良い。テーブル16にはPOS装置18が設けられ、物品識別装置2からの個品の識別データに基づき、会計処理を行う。なお物品識別装置2からのデータの出力先は任意である。また14は記憶媒体で、図3もしくは図4のアルゴリズムを、物品識別装置2に実行させ、図2のように機能させるための物品識別プログラムを記憶している。   In FIG. 1, reference numeral 2 denotes an article identification device, which is composed of a personal computer or the like, and constitutes an article identification system together with an imaging device 6 housed in a table 4 and attached to an arm 5. A color camera 8 captures an RGB image. Reference numeral 9 denotes an IR (infrared) projector, and reference numeral 10 denotes an IR (infrared) camera. The image of the grid points projected from the projector 9 onto the tray 11 and the pans 12 and 13 is captured by the IR camera 10, and the distance from the camera 10 is determined. Ask. The imaging device 6 outputs a distance image and a color image such as an RGB image, such as the tray 11 and pans 12 and 13 that are in contact with each other. A container such as a bucket or a belt conveyor may be used instead of the tray 11, and vegetables, fruits, fish, meat, tablets, etc. may be identified instead of bread. In addition, a plurality of articles that overlap each other are identified, but one article may be identified. The table 16 is provided with a POS device 18 and performs accounting processing based on the identification data of individual items from the item identification device 2. The output destination of data from the article identification device 2 is arbitrary. Reference numeral 14 denotes a storage medium which stores an article identification program for causing the article identification apparatus 2 to execute the algorithm shown in FIG. 3 or 4 and to function as shown in FIG.

図2は物品識別装置2を示し、図3はその動作を示す。入力は撮像装置6からのRGB画像と距離画像で(ステップ1)、HSV変換部24によりRGB画像をHSV画像(色相と彩度と明度の画像)に変換する(ステップ2)。個品の識別に明度のみを用いる場合、HSV画像ではなく明度の画像に変換すればよい。座標変換部26は、撮像装置6からの距離の画像を、トレイ11の底面からの距離の画像に変換する(ステップ3)。例えば同じ形状のトレイ11を常時用いる場合、物品が無いトレイ11の底面を撮像して、その距離画像から基準平面の方程式を求めて記憶する。そしてこの方程式を用いて、基準平面からの距離を表すように、距離画像を座標変換する。なお座標変換の手法は任意である。   FIG. 2 shows the article identification device 2, and FIG. 3 shows its operation. The input is an RGB image and a distance image from the imaging device 6 (step 1), and the HSV converter 24 converts the RGB image into an HSV image (image of hue, saturation, and brightness) (step 2). When only brightness is used for identification of individual items, it is only necessary to convert to an image of brightness instead of an HSV image. The coordinate conversion unit 26 converts the image of the distance from the imaging device 6 into the image of the distance from the bottom surface of the tray 11 (Step 3). For example, when the tray 11 having the same shape is always used, the bottom surface of the tray 11 having no article is imaged, and the equation of the reference plane is obtained from the distance image and stored. Then, using this equation, the distance image is coordinate-transformed so as to represent the distance from the reference plane. The coordinate conversion method is arbitrary.

メモリ28はHSV画像を記憶し、メモリ30は撮像装置6からの距離を表す画像を記憶する。メモリ32は、トレイ11の底面からの距離の画像、即ち正規化距離画像と、正規化距離画像からエッジを抽出したエッジ画像とを記憶する。33は作業用のメモリである。輪郭抽出部34は、正規化した距離画像から物品の輪郭を抽出し、例えば正規化した距離画像でのエッジにより、あるいは正規化した距離画像を適宜の閾値で2値化することにより、輪郭を抽出する(ステップ4)。閾値は固定でも可変でも良い。屈曲点検出部35は、輪郭の屈曲点を検出する(ステップ5)。輪郭の接線方向あるいは法線方向が大きく変化することが屈曲点の条件である。   The memory 28 stores an HSV image, and the memory 30 stores an image representing a distance from the imaging device 6. The memory 32 stores an image of the distance from the bottom surface of the tray 11, that is, a normalized distance image, and an edge image obtained by extracting an edge from the normalized distance image. Reference numeral 33 denotes a working memory. The contour extraction unit 34 extracts the contour of the article from the normalized distance image, and binarizes the normalized distance image with an appropriate threshold value, for example, by using an edge in the normalized distance image. Extract (step 4). The threshold value may be fixed or variable. The bending point detection unit 35 detects the bending point of the contour (step 5). The condition of the bending point is that the tangential direction or normal direction of the contour changes greatly.

ステップ4で、エッジではなく、2値化等により輪郭を抽出したものとして説明する。エッジ抽出部36は、正規化済みの距離画像での物品の輪郭内で、ラプラシアンフィルタ(図14)等により、エッジを抽出し、エッジの位置で画素値が+となるエッジ画像とし、メモリ32に記憶する(ステップ6)。なお抽出したエッジ中で所定の高さ以上のもののみを用いても良く、エッジ抽出前に画像を平滑化しても良い。   In step 4, it is assumed that the contour is extracted by binarization instead of the edge. The edge extraction unit 36 extracts an edge by using a Laplacian filter (FIG. 14) or the like in the contour of the article in the normalized distance image, and generates an edge image in which the pixel value becomes + at the edge position. (Step 6). Note that only the extracted edges having a predetermined height or higher may be used, and the image may be smoothed before the edges are extracted.

ステップ4でエッジを抽出する場合は、上記の処理をステップ4で実行しておく。正規化した距離画像での画素値から、エッジ画像での画素値を減算し、メモリ32に記憶する(ステップ7)。ただし減算によって正規化した距離が負、即ちトレイ11の底面よりも下側となる場合、距離は0とする。また減算では、エッジ画像の画素値に適宜の係数を乗算してから減算しても良く、あるいはエッジ画像を平滑化フィルタ等で処理することにより、平滑化と係数との乗算を実行した後に減算しても良い。なおエッジの位置で画素値が−となるエッジ抽出フィルタを用いる場合、エッジ画像の画素値を正規化済みの距離画像の画素値に加算する。   When an edge is extracted in step 4, the above processing is executed in step 4. The pixel value in the edge image is subtracted from the pixel value in the normalized distance image and stored in the memory 32 (step 7). However, when the distance normalized by subtraction is negative, that is, lower than the bottom surface of the tray 11, the distance is set to zero. In addition, the subtraction may be performed by multiplying the pixel value of the edge image by an appropriate coefficient and then subtracting after the edge image is processed by a smoothing filter or the like to perform smoothing and multiplication of the coefficient. You may do it. When an edge extraction filter having a pixel value of − at the edge position is used, the pixel value of the edge image is added to the pixel value of the normalized distance image.

物品が上下に重なる場合、エッジの下側が基準平面よりも高く、かつステップ4で抽出した輪郭の内側にあるという特徴がある。輪郭の内側の領域をエッジにより分割し、エッジの下側(他の物品の下側)、エッジの上側(他の物品の上側)であることを、領域の属性として、メモリ33に記憶する。また輪郭の内側のエッジに基づく分割候補線には、明度による検証を実行しないように、検証が不要との属性を輪郭の内側のエッジに対し、メモリ33に記憶する。   When the articles overlap each other, there is a feature that the lower side of the edge is higher than the reference plane and is inside the contour extracted in step 4. The area inside the contour is divided by the edge, and the fact that it is the lower side of the edge (the lower side of the other article) and the upper side of the edge (the upper side of the other article) is stored in the memory 33 as an attribute of the area. In addition, an attribute indicating that the verification is not necessary is stored in the memory 33 for the inner edge of the contour so that the verification based on the brightness is not performed on the candidate dividing line based on the inner edge of the contour.

図5は、トレイ11上の物品46,47の上に、物品48が重なっている状況を示す。ここで図の鎖線のように斜め上方から、あるいは鉛直上方から、物品46〜48を見ると、距離画像にエッジが存在し、このエッジは上方の物品48の輪郭を示している。ラプラシアンフィルタを用いると、エッジ画像でエッジは正の輪郭として現れ、エッジ画像の画素値を正規化した距離画像での画素値から減算すると、上下の物品が重なったエッジはトレイからの距離が短い、正規化距離画像での谷に変化する。   FIG. 5 shows a situation in which the article 48 overlaps the articles 46 and 47 on the tray 11. Here, when the articles 46 to 48 are viewed obliquely from above or from vertically above as indicated by a chain line in the figure, an edge is present in the distance image, and this edge indicates the outline of the article 48 above. When the Laplacian filter is used, the edge appears as a positive contour in the edge image, and when the pixel value of the edge image is subtracted from the pixel value in the normalized distance image, the edge where the upper and lower articles overlap has a short distance from the tray , Changes to valleys in the normalized distance image.

2個の屈曲点間を、正規化した距離画像の谷、即ちトレイ11からの高さが所定値以下のルート、を経由して接続する線を、分割候補線とし、分割候補線発生部37により発生させる(ステップ8)。分割候補線は、短く、分割候補線を直径とする円が輪郭からはみ出さず、両端の屈曲点での屈曲が著しいものが、信頼性が高い。谷は、谷の両側の領域に比べトレイ11からの高さが低い領域であり、例えば谷の両外側への方向(谷に直角な方向で外向きの方向)での距離の勾配が+か0等としても良い。   A line connecting the two inflection points via a normalized valley of the distance image, that is, a route whose height from the tray 11 is a predetermined value or less is set as a division candidate line, and a division candidate line generation unit 37 (Step 8). The division candidate line is short, a circle having the diameter of the division candidate line does not protrude from the outline, and the bending at the bending points at both ends is remarkable, so that the reliability is high. The valley is a region where the height from the tray 11 is lower than the regions on both sides of the valley. For example, the distance gradient in the direction toward both outer sides of the valley (the direction perpendicular to the valley and the outward direction) is +? It may be 0.

検証部38は、分割候補線上の明度の平均値が閾値以上であると分割候補線を削除し、分割候補線上の明度の平均値が閾値未満のものを残して、残った分割候補線により互いに接触している複数個の物品を個々の物品へ分離する。ただし輪郭内のエッジに基づく分割候補線、即ち物品の上下の重なりに基づく分割候補線に対しては、明度の検証を省略することが好ましい(ステップ9)。平均値に代えて中央値等を用いても良い。なお、分割候補線の信頼性が低い場合、オペレータが分割候補線を削除し、追加し、あるいは修正できるようにしても良い(ステップ10)。個々の物品へ分離すると、距離画像と、HSV画像あるいはRGB画像とをメモリ30,32から読み出す(ステップ11)。   The verification unit 38 deletes the division candidate line when the average value of the brightness on the division candidate line is equal to or greater than the threshold value, and leaves the average value of the brightness on the division candidate line that is less than the threshold value. A plurality of articles in contact are separated into individual articles. However, it is preferable to omit the lightness verification for the division candidate lines based on the edges in the outline, that is, the division candidate lines based on the upper and lower overlaps of the article (step 9). A median value or the like may be used instead of the average value. In addition, when the reliability of the division candidate line is low, the operator may be able to delete, add, or modify the division candidate line (step 10). When separated into individual articles, the distance image and the HSV image or RGB image are read from the memories 30 and 32 (step 11).

物品のテクスチャ、形状、色相と彩度、明度等に基づき、個品識別データベース40のデータを参照して、個品識別部42により物品の種類を識別することができる(ステップ12)。距離画像があるので、物品の体積、及び基準平面からの距離の平均と分散を形状の特徴に追加し、物品表面の凹凸の程度をテクスチャの特徴に追加できる。識別結果をPOS装置18等へ出力する(ステップ13)。   Based on the texture, shape, hue and saturation, brightness, etc. of the article, the type of the article can be identified by the individual item identification unit 42 with reference to the data in the individual item identification database 40 (step 12). Since there is a distance image, the volume of the article and the average and dispersion of the distance from the reference plane can be added to the shape feature, and the degree of unevenness on the article surface can be added to the texture feature. The identification result is output to the POS device 18 or the like (step 13).

ステップ12で、物品の種類を識別する際に、エッジの下側の物品は一部が隠れている。物品の種類を識別するための形状、テクスチャ、カラーの3要素には、物品の面積、体積、縦横比、周長と面積との比等のように、物品の一部が隠れると、意味が低下するデータがある。この一方で、テクスチャ及び色相等のカラーデータは、物品の一部が隠れても、識別データとして有効であることが多い。そこで物品の一部が隠れると意味が低下するデータは、エッジの下側の物品には適用しないようにするか、あるいは面積の下限から上限までの範囲で識別する場合に下限のみを用いる等に、適用条件を変更する。以上のようにして、エッジの下側の物品に対し、個品識別データベース40のデータの適用条件を変更する。   In step 12, when identifying the type of article, the article below the edge is partially hidden. The three elements of shape, texture, and color for identifying the type of article have meaning if a part of the article is hidden, such as the area, volume, aspect ratio, and circumference to area ratio of the article. There is data to decline. On the other hand, color data such as texture and hue are often effective as identification data even if a part of the article is hidden. Therefore, the data whose meaning is reduced when a part of the article is hidden should not be applied to the article under the edge, or only the lower limit is used when identifying the area from the lower limit to the upper limit of the area. Change application conditions. As described above, the application condition of the data in the individual item identification database 40 is changed for the article below the edge.

分割候補線上の明度を用いる意味を図6に示す。50は物品のくびれで、距離画像の谷であり、51は物品間の境界で、同様に距離画像の谷である。一般に距離画像の分解能は、RGB画像の分解能に比べ低いので、距離画像のみから、くびれ50と境界51を識別することには限界がある。くびれ50の底面には、トレイ11の底面に平行なエリアがあることが多く、このエリアでは鎖線のように光線を反射するので、明度が高くなる。これに対し境界51にはトレイ11の底面に平行なエリアがあることは少ない。このため、くびれ50ではRGB画像もしくはグレースケール画像が明るくなり、境界51ではRGB画像もしくはグレースケール画像が暗くなる。なお上下に重なる物品によるエッジでは、くびれ50と同様に明度が高いエッジとなることがあり、明度による検証は省略することが好ましい。   The meaning of using the lightness on the division candidate line is shown in FIG. 50 is a constriction of the article, which is a valley of the distance image, 51 is a boundary between the articles, and is also a valley of the distance image. In general, since the resolution of the distance image is lower than the resolution of the RGB image, there is a limit in identifying the constriction 50 and the boundary 51 from only the distance image. In many cases, the bottom surface of the constriction 50 has an area parallel to the bottom surface of the tray 11. In this area, light rays are reflected like a chain line, so that the brightness is increased. On the other hand, the boundary 51 rarely has an area parallel to the bottom surface of the tray 11. For this reason, the RGB image or the gray scale image becomes bright at the constriction 50, and the RGB image or the gray scale image becomes dark at the boundary 51. It should be noted that an edge formed by overlapping articles may be an edge having a high lightness as in the case of the constriction 50, and verification by lightness is preferably omitted.

変形例のアルゴリズムを図4に示し、物品識別装置のハードウェアは図2と同じで、図3と同じステップは同じ処理を表す。図3のステップ6,7を省略し、ステップ9までを実行する。これによって、上下に重ならずに、互いに接触している物品を分離するように分割候補線を発生させることができる。ステップ9に続いて、物品の輪郭内でステップ6を実行し、上下に重なった物品間のエッジを抽出し、エッジ画像とする。エッジ画像に平滑化等の処理を施し、適宜の閾値と比較して、上下に物品が重なる輪郭とし、この輪郭を分割候補線に追加する(ステップ21)。またエッジを境界とする上下関係をメモリ33等に記憶する。そして図3のステップ10〜13を実行し、ステップ12では、物品の識別用データの適用条件をエッジの下側の物品に対して変更する。   The algorithm of the modified example is shown in FIG. 4, the hardware of the article identification device is the same as that in FIG. 2, and the same steps as in FIG. 3 represent the same processing. Steps 6 and 7 in FIG. 3 are omitted, and step 9 is executed. Accordingly, it is possible to generate the division candidate lines so as to separate the articles that are in contact with each other without overlapping vertically. Subsequent to Step 9, Step 6 is executed within the outline of the article, and the edge between the articles that overlap vertically is extracted and used as an edge image. The edge image is subjected to a process such as smoothing, and compared with an appropriate threshold value to obtain an outline in which articles overlap, and this outline is added to the division candidate line (step 21). Further, the vertical relationship with the edge as a boundary is stored in the memory 33 or the like. Then, Steps 10 to 13 in FIG. 3 are executed. In Step 12, the application condition of the article identification data is changed for the article below the edge.

図7,図8に、簡単に分離できる程度に接触しているパンの例を示す。図7はトレイ上のパンのグレースケール画像を示し、図8はトレイを基準として正規化した距離画像を示す。図7の画像からは、個々のパンをカラー画像のみから切り出すことができる。図8の正規化した距離画像では、トレイ11の底面とパンとを正確に分離できている。   7 and 8 show examples of breads that are in contact with each other so that they can be easily separated. FIG. 7 shows a gray scale image of the pan on the tray, and FIG. 8 shows a distance image normalized with respect to the tray. From the image of FIG. 7, individual pans can be cut out only from the color image. In the normalized distance image of FIG. 8, the bottom surface of the tray 11 and the pan can be accurately separated.

図9〜図13に、くびれのある複雑な形状のパンが互いに接触している際の、パンの分離を示す。図9はパンのグレースケール画像を示し、特許文献2のようにして、明度画像の輪郭から屈曲点と分割候補線とを発生させると、図10のようになり、不要な分割候補線が多数含まれている。   9-13 illustrate the separation of the pans when the constricted and complex pans are in contact with each other. FIG. 9 shows a gray scale image of a pan. When a bending point and division candidate lines are generated from the contour of a lightness image as in Patent Document 2, it becomes as shown in FIG. 10, and there are many unnecessary division candidate lines. include.

図9に対応する正規化した距離画像を図11に示し、距離画像の輪郭から、特許文献2のようにして分割候補線を発生させると、図12のようになり、やはり不要な分割候補線が含まれている。分割候補線上の明度の平均値が閾値以上のものを削除する実施例では、図13のようになり、複雑な形状で互いに接触している複数個のパンを分離できる。   A normalized distance image corresponding to FIG. 9 is shown in FIG. 11, and when dividing candidate lines are generated from the contour of the distance image as shown in Patent Document 2, it becomes as shown in FIG. It is included. In an embodiment in which the average value of the brightness on the division candidate line is deleted from the threshold value or more, as shown in FIG. 13, a plurality of pans that are in contact with each other in a complicated shape can be separated.

図14はラプラシアンフィルタの値を示し、このフィルタで処理すると、エッジで画素値は正となる。エッジ抽出フィルタには、図15のガウシアン差分フィルタ等も使用でき、このフィルタはラプラシアンフィルタに平滑化機能を追加したフィルタである。またSUSANフィルタを変形したエッジ抽出フィルタも使用でき、このフィルタでは、注目画素でのトレイからの距離d1と周囲の画素でのトレイからの距離dsの差の偶数乗Δ=(d1-ds)を求め、nは偶数である。そしてexp(−Δ・k)を周囲の画素毎に求めて加算値sumを求める。なおkは正の係数である。エッジがなければ加算値sumは大きく、エッジで加算値sumは小さくなる。さらにケニーのエッジ検出アルゴリズムを変形しても良い。例えば正規化距離画像での注目画素毎に、勾配の絶対値と勾配方向とを求め、勾配の絶対値が最大となる画素を、勾配方向に直角になることを優先しながら接続して、エッジを抽出しても良い。しかしながらSUSANフィルタやケニーのエッジ検出アルゴリズムは、ラプラシアンフィルタ、ガウシアン差分フィルタに比べ、計算量が多い。 FIG. 14 shows the value of the Laplacian filter, and when this filter is processed, the pixel value becomes positive at the edge. As the edge extraction filter, the Gaussian difference filter of FIG. 15 or the like can be used, and this filter is a filter obtained by adding a smoothing function to the Laplacian filter. An edge extraction filter obtained by modifying the SUSAN filter can also be used. In this filter, an even power of the difference between the distance d1 from the tray at the target pixel and the distance ds from the tray at the surrounding pixels is equal to Δ = (d1−ds) n. Where n is an even number. Then, exp (−Δ · k) is obtained for each surrounding pixel to obtain an added value sum. K is a positive coefficient. If there is no edge, the addition value sum is large, and the addition value sum is small at the edge. Furthermore, the Kenny edge detection algorithm may be modified. For example, for each pixel of interest in the normalized distance image, the absolute value of the gradient and the gradient direction are calculated, and the pixel having the maximum gradient absolute value is connected with priority given to being perpendicular to the gradient direction, and the edge May be extracted. However, the SUSAN filter and Kenny's edge detection algorithm are computationally expensive compared to the Laplacian filter and Gaussian difference filter.

図16は上下に重なった3個のドーナツとその輪郭とを示し、正規化済みの距離画像を図17に示す。図17の画像をラプラシアンフィルタで処理したエッジ画像を、元の距離画像から減算すると図18の画像となる。上下の物品が重なったエッジはトレイの底面に近い谷に変換され、エッジでの重なりの始まりと終わりには屈曲点があり、エッジは分割候補線となる。そしてエッジを分割候補線に追加すると、図19のように、3個のドーナツを分離できる。なおエッジに基づく分割候補線には、明度による検証をしないことが望ましい。下側のドーナツは一部が欠けているので、面積、体積、縦横比、等の要素を識別に用いないか、もしくは適用条件を制限すると、3個のドーナツの種類を正しく識別できる。   FIG. 16 shows three donuts that overlap vertically and their outlines, and FIG. 17 shows a normalized distance image. When an edge image obtained by processing the image of FIG. 17 with a Laplacian filter is subtracted from the original distance image, the image of FIG. 18 is obtained. The edge where the upper and lower articles overlap is converted into a valley close to the bottom surface of the tray, there is a bending point at the beginning and end of the overlap at the edge, and the edge becomes a candidate dividing line. Then, when an edge is added to the division candidate line, three donuts can be separated as shown in FIG. It should be noted that it is desirable not to verify the division candidate line based on the edge by brightness. Since the lower donut is partially missing, the type of the three donuts can be correctly identified if elements such as area, volume, aspect ratio, etc. are not used for identification or if application conditions are limited.

なお図4のアルゴリズムを実行する場合、図17の正規化済み距離画像から、ステップ4で、3個のドーナツを分離していない状態での輪郭を抽出する。その後に、ドーナツが上下に重なることによるエッジを抽出し、エッジを上下のドーナツの境界を分割候補線とすると、図19のように分割できる。この場合も、下側のドーナツに対して、面積、体積、縦横比、等の要素を識別に用いないか、もしくは適用条件を制限する。   When the algorithm of FIG. 4 is executed, a contour in a state where three donuts are not separated is extracted from the normalized distance image of FIG. 17 in step 4. Thereafter, by extracting edges caused by overlapping donuts in the vertical direction and using the boundaries of the upper and lower donuts as division candidate lines, the edges can be divided as shown in FIG. Also in this case, elements such as area, volume, aspect ratio, etc. are not used for identification or the application conditions are limited for the lower donut.

実施例ではパンの識別を示したが、野菜、果物、魚介類、肉類、薬品の錠剤等、識別対象の物品は任意である。実施例では、互いに接触している物品の分離と、上下に重なっている物品の分離とを実行したが、互いに接触している物品の分離は省略しても良い。   In the embodiment, identification of bread is shown. However, articles to be identified such as vegetables, fruits, seafood, meat, and medicine tablets are arbitrary. In the embodiment, the separation of the articles that are in contact with each other and the separation of the articles that are stacked on top and bottom are performed, but the separation of the articles that are in contact with each other may be omitted.

2 物品識別装置
4 テーブル
5 アーム
6 撮像装置
8 カラーカメラ
9 IRプロジェクタ
10 IRカメラ
11 トレイ
12,13 パン
14 記憶媒体
16 テーブル
18 POS装置
20 バス
22 入力部
24 HSV変換部
26 座標変換部
28〜33 メモリ
34 輪郭抽出部
35 屈曲点検出部
36 エッジ抽出部
37 分割候補線発生部
38 検証部
40 個品識別データベース
42 個品識別部
46〜48 物品
50 くびれ
51 境界
2 Item identification device 4 Table 5 Arm 6 Imaging device 8 Color camera 9 IR projector 10 IR camera 11 Tray 12, 13 Pan 14 Storage medium 16 Table 18 POS device 20 Bus 22 Input unit 24 HSV conversion unit 26 Coordinate conversion units 28-33 Memory 34 Outline extraction unit 35 Bending point detection unit 36 Edge extraction unit 37 Division candidate line generation unit 38 Verification unit 40 Item identification database 42 Item identification unit 46 to 48 Article 50 Neck 51 Boundary

Claims (3)

物品のカラー画像と距離画像とを取得する撮像装置と、
前記距離画像から物品の輪郭を抽出する輪郭抽出部と、
距離画像でのエッジを抽出し、前記輪郭の内部でのエッジから上下に重なっている物品を分離するエッジ抽出部と、
分離された個々の物品の種類を識別する個品識別部とを備えている、物品識別システム。
An imaging device for acquiring a color image and a distance image of the article;
An outline extraction unit for extracting the outline of the article from the distance image;
An edge extraction unit that extracts an edge in a distance image and separates an article that overlaps from the edge inside the contour;
An article identification system comprising: an individual article identification unit that identifies a type of each separated article.
他の物品の下側となる物品に対して、個品の識別用データの適用条件を、それ以外の物品の場合とは異ならせるように、個品識別部が構成されていることを特徴とする、請求項1の物品識別システム。   The individual item identification unit is configured to make the application conditions of the identification data for individual items different from those of other items for the items under the other items. The article identification system of claim 1. 物品のカラー画像と距離画像とを取得する撮像装置と、
撮像装置からのカラー画像と距離画像とを処理し、上下に重なる物品を分離することにより、個々の物品の種類を識別するコンピュータとから成る物品識別システムのためのプログラムであって、
前記コンピュータを、
前記距離画像から物品の輪郭を抽出する輪郭抽出部と、
距離画像でのエッジを抽出し、前記輪郭の内部でのエッジから上下に重なっている物品を分離するエッジ抽出部と、
分離された個々の物品の種類を識別する個品識別部として機能させる、物品識別システムのためのプログラム。
An imaging device for acquiring a color image and a distance image of the article;
A program for an article identification system comprising a computer that processes a color image and a distance image from an imaging device and separates an article that overlaps the top and bottom to identify the type of each article,
The computer,
An outline extraction unit for extracting the outline of the article from the distance image;
An edge extraction unit that extracts an edge in a distance image and separates an article that overlaps from the edge inside the contour;
A program for an item identification system that functions as an individual item identification unit for identifying the type of each separated item.
JP2013109431A 2013-05-24 2013-05-24 Article identification system and its program Active JP6151562B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013109431A JP6151562B2 (en) 2013-05-24 2013-05-24 Article identification system and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013109431A JP6151562B2 (en) 2013-05-24 2013-05-24 Article identification system and its program

Publications (2)

Publication Number Publication Date
JP2014229154A JP2014229154A (en) 2014-12-08
JP6151562B2 true JP6151562B2 (en) 2017-06-21

Family

ID=52128930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013109431A Active JP6151562B2 (en) 2013-05-24 2013-05-24 Article identification system and its program

Country Status (1)

Country Link
JP (1) JP6151562B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107437254A (en) * 2017-06-28 2017-12-05 常州大学 A kind of orchard abuts morphological reduplication fruit method of discrimination

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2930190C (en) * 2015-05-16 2019-09-24 Tata Consultancy Services Limited Method and system for planogram compliance check based on visual analysis
JP6523883B2 (en) * 2015-09-07 2019-06-05 株式会社富士通アドバンストエンジニアリング Estimation device, object position recognition device and estimation program
CN106887006B (en) * 2015-12-15 2020-06-30 株式会社理光 Method, device and machine sorting system for identifying stacked objects
CN106886998A (en) * 2015-12-15 2017-06-23 株式会社理光 Method for segmenting objects and equipment
CN106886997A (en) * 2015-12-15 2017-06-23 株式会社理光 The method and apparatus for recognizing stacked objects
US10674054B2 (en) * 2016-10-21 2020-06-02 Toshiba Tec Kabushiki Kaisha Image processing apparatus and image processing method
JP6896401B2 (en) * 2016-11-25 2021-06-30 東芝テック株式会社 Article recognition device
JP6972481B2 (en) * 2017-03-09 2021-11-24 株式会社ブレイン Meal identification system and identification method and identification program
JP2018147415A (en) * 2017-03-09 2018-09-20 株式会社ブレイン Meal identification system and program therefor
JP6876293B2 (en) * 2017-03-09 2021-05-26 株式会社ブレイン Meal identification system and its programs
JP6886906B2 (en) * 2017-10-10 2021-06-16 東芝テック株式会社 Readers and programs
CN107609543A (en) * 2017-10-24 2018-01-19 宁夏农林科学院农业经济与信息技术研究所 A kind of matrimony vine diseases and pests polypide robot scaler
JP6848837B2 (en) * 2017-11-30 2021-03-24 京セラドキュメントソリューションズ株式会社 Image processing device
CN108491846B (en) * 2018-04-02 2021-12-10 湖南生物机电职业技术学院 Mature fruit machine identification method
CN110781877B (en) * 2019-10-28 2024-01-23 京东方科技集团股份有限公司 Image recognition method, device and storage medium
CN115691010A (en) * 2022-10-24 2023-02-03 深圳进化动力数码科技有限公司 Automatic checkout method, system, equipment and storage medium based on dish identification

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3059294B2 (en) * 1992-04-03 2000-07-04 日鉄鉱業株式会社 Method and apparatus for obtaining clear images of individual articles
JP4639841B2 (en) * 2005-02-23 2011-02-23 パナソニック電工株式会社 Inspection method for granular object and inspection apparatus using the same
AU2008243688B2 (en) * 2007-04-26 2013-12-12 Gryphon Systems Engineering Pty Ltd Method and apparatus for three dimensional image processing and analysis
JP2010049501A (en) * 2008-08-21 2010-03-04 Panasonic Electric Works Co Ltd Granular body counting method and counting device using the method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107437254A (en) * 2017-06-28 2017-12-05 常州大学 A kind of orchard abuts morphological reduplication fruit method of discrimination

Also Published As

Publication number Publication date
JP2014229154A (en) 2014-12-08

Similar Documents

Publication Publication Date Title
JP6151562B2 (en) Article identification system and its program
JP7151805B2 (en) LEARNING DATA GENERATION DEVICE, LEARNING DATA GENERATION METHOD, AND PROGRAM
US8447114B2 (en) Method and apparatus for calculating pixel features of image data
EP3118813B1 (en) Image recognition device, image sensor, and image recognition method
US10204422B2 (en) Generating three dimensional models using single two dimensional images
US9317784B2 (en) Image processing apparatus, image processing method, and program
US20150063651A1 (en) Image processing apparatus and image processing method
JP2013089252A (en) Video processing method and device
US11348248B1 (en) Automatic image cropping systems and methods
US11747284B2 (en) Apparatus for optimizing inspection of exterior of target object and method thereof
JP6410450B2 (en) Object identification device, object identification method, and program
JP2010205067A (en) Device, method and program for extracting area
US9661166B2 (en) Image processing apparatus, region detection method and computer-readable, non-transitory medium
JP6316569B2 (en) Article identification system and its program
JP6230814B2 (en) Article identification system and its program
US9286513B2 (en) Image processing apparatus, method, and storage medium
CN111161263A (en) Package flatness detection method and system, electronic equipment and storage medium
JP6628336B2 (en) Information processing system
Saha et al. An approach to detect the region of interest of expressive face images
KR101718085B1 (en) Apparatus and Method of Enhancing Visual Flavor of Food Image
JPWO2015093231A1 (en) Image processing device
JP2020021520A (en) Information processing system
Mantecón del Valle et al. New generation of human machine interfaces for controlling UAV through depth based gesture recognition
Vishwakarma et al. A framework for recognition of hand gesture in static postures
Hovorka et al. Opening OpenCV

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170525

R150 Certificate of patent or registration of utility model

Ref document number: 6151562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250