JP6438774B2 - Determination device, control program, and determination method - Google Patents

Determination device, control program, and determination method Download PDF

Info

Publication number
JP6438774B2
JP6438774B2 JP2015007510A JP2015007510A JP6438774B2 JP 6438774 B2 JP6438774 B2 JP 6438774B2 JP 2015007510 A JP2015007510 A JP 2015007510A JP 2015007510 A JP2015007510 A JP 2015007510A JP 6438774 B2 JP6438774 B2 JP 6438774B2
Authority
JP
Japan
Prior art keywords
region
area
candy
feature amount
confectionery
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015007510A
Other languages
Japanese (ja)
Other versions
JP2016133953A (en
Inventor
健太 西行
健太 西行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2015007510A priority Critical patent/JP6438774B2/en
Publication of JP2016133953A publication Critical patent/JP2016133953A/en
Application granted granted Critical
Publication of JP6438774B2 publication Critical patent/JP6438774B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理に関する。   The present invention relates to image processing.

特許文献1及び2に記載されているように、従来から画像処理に関して様々な技術が提案されている。   As described in Patent Documents 1 and 2, various techniques have been proposed for image processing.

特開2001−43371号公報JP 2001-43371 A 特許第4175413号公報Japanese Patent No. 4175413

画像処理を用いて対象物が比較対象に相当するか否かを判定する際には、その判定精度が高いことが望ましい。   When determining whether an object corresponds to a comparison object using image processing, it is desirable that the determination accuracy be high.

そこで、本発明は上述の点に鑑みて成されたものであり、画像処理を用いて対象物が比較対象に相当するか否かを判定する際の判定精度を向上させることが可能な技術を提供することを目的とする。   Therefore, the present invention has been made in view of the above points, and a technique capable of improving the determination accuracy when determining whether or not an object corresponds to a comparison object using image processing. The purpose is to provide.

本発明に係る判定装置の一態様は、処理対象画像に映る対象物が比較対象に相当するか否かを判定する判定装置であって、対象物が映る処理対象画像から、前記対象物が映る対象物領域を抽出する抽出部と、前記対象物領域に対して領域分割を行う領域分割部と、前記領域分割部で生成された複数の分割領域に基づいて、前記対象物の特徴を示す特徴量を取得する特徴量取得部と、前記特徴量に基づいて、前記対象物が比較対象に相当するか否かを判定する判定部とを備え、前記領域分割部は、前記対象物領域全体での輝度ヒストグラムのエントロピーに基づいて、前記領域分割で使用するしきい値を決定し、前記領域分割において、前記対象物領域の分割領域での輝度ヒストグラムのエントロピーが前記しきい値以上あるいは前記しきい値よりも大きい場合に当該分割領域を複数の分割領域にさらに分割する処理を繰り返し行う。   One aspect of the determination apparatus according to the present invention is a determination apparatus that determines whether or not an object shown in a process target image corresponds to a comparison target, and the target object is reflected from a process target image showing the target object. A feature indicating characteristics of the object based on an extraction unit that extracts a target region, a region dividing unit that performs region division on the target region, and a plurality of divided regions generated by the region dividing unit A feature amount acquisition unit that acquires an amount; and a determination unit that determines whether or not the object corresponds to a comparison target based on the feature amount; and the region dividing unit includes the entire target region. A threshold value to be used in the region division is determined based on the entropy of the luminance histogram, and in the region division, the entropy of the luminance histogram in the divided region of the object region is greater than or equal to the threshold value or the threshold value. value Further repeating the process of dividing the divided regions into a plurality of divided areas when also large Ri.

また、本発明に係る判定装置の一態様では、前記特徴量取得部は、前記領域分割部で生成された複数の分割領域のそれぞれについての当該分割領域の大きさを示す情報に基づいて前記特徴量を取得する。   Further, in one aspect of the determination apparatus according to the present invention, the feature amount acquisition unit is configured to perform the feature based on information indicating a size of the divided region for each of the plurality of divided regions generated by the region dividing unit. Get the quantity.

また、本発明に係る判定装置の一態様では、前記特徴量取得部は、前記領域分割部で生成された複数の分割領域のそれぞれについての、前記対象物領域の中心から当該分割領域までの距離を示す情報に基づいて前記特徴量を取得する。   Moreover, in one aspect of the determination apparatus according to the present invention, the feature amount acquisition unit is a distance from the center of the object region to the division region for each of the plurality of division regions generated by the region division unit. The feature amount is acquired based on the information indicating.

また、本発明に係る判定装置の一態様では、前記特徴量取得部は、前記情報の1次元ヒストグラムを前記特徴量とする。   In the aspect of the determination apparatus according to the present invention, the feature amount acquisition unit uses a one-dimensional histogram of the information as the feature amount.

また、本発明に係る判定装置の一態様では、前記特徴量取得部は、前記領域分割部で生成された複数の分割領域のそれぞれについての当該分割領域の大きさを示す第1情報と、当該複数の分割領域のそれぞれについての、前記対象物領域の中心から当該分割領域までの距離を示す第2情報とに基づいて、前記特徴量を取得する。   In the aspect of the determination apparatus according to the present invention, the feature amount acquisition unit includes first information indicating a size of the divided region for each of the plurality of divided regions generated by the region dividing unit, The feature amount is acquired based on the second information indicating the distance from the center of the object area to the divided area for each of the divided areas.

また、本発明に係る判定装置の一態様では、前記特徴量取得部は、前記第1情報及び前記第2情報の2次元ヒストグラムを前記特徴量とする。   In the aspect of the determination apparatus according to the present invention, the feature amount acquisition unit uses the two-dimensional histogram of the first information and the second information as the feature amount.

また、本発明に係る判定装置の一態様では、前記判定部は、前記比較対象の特徴を示す標準特徴量と、前記特徴量とを比較し、その比較結果に基づいて、前記対象物が前記比較対象に相当するか否かを判定する。   Further, in one aspect of the determination apparatus according to the present invention, the determination unit compares the feature quantity with a standard feature quantity indicating the feature to be compared, and based on a result of the comparison, the object is the It is determined whether it corresponds to the comparison target.

また、本発明に係る判定装置の一態様では、前記処理対象画像は、前記処理対象画像に映る前記対象物の周方向の向きは一定せず、前記判定部は、前記比較対象の特徴を示す複数種類の標準特徴量のそれぞれと、前記特徴量とを比較し、その比較結果に基づいて、前記対象物が前記比較対象に相当するか否かを判定し、前記複数種類の標準特徴量は、それぞれにおいて前記比較対象が映る複数の画像に基づいてそれぞれ生成され、前記複数の画像の間では、当該画像に映る前記比較対象の周方向の向きが異なる。   Further, in one aspect of the determination apparatus according to the present invention, the processing target image has a constant orientation in a circumferential direction of the target object shown in the processing target image, and the determination unit indicates the characteristics of the comparison target. Each of a plurality of types of standard feature values is compared with the feature value, and based on the comparison result, it is determined whether or not the object corresponds to the comparison target. , Each of which is generated based on a plurality of images in which the comparison object is reflected, and the circumferential direction of the comparison object in the image is different between the plurality of images.

また、本発明に係る制御プログラムの一態様は、コンピュータ装置に、処理対象画像に映る対象物が比較対象に相当するか否かを判定させるための制御プログラムであって、前記コンピュータ装置に、(a)対象物が映る処理対象画像から、前記対象物が映る対象物領域を抽出する工程と、(b)前記対象物領域に対して領域分割を行う工程と、(c)前記工程(b)で生成された複数の分割領域に基づいて、前記対象物の特徴を示す特徴量を取得する工程と、(d)前記特徴量に基づいて、前記対象物が比較対象に相当するか否かを判定する工程とを実行させ、前記工程(b)において、前記対象物領域全体での輝度ヒストグラムのエントロピーに基づいて、前記領域分割で使用されるしきい値を決定させ、前記対象物領域の分割領域での輝度ヒストグラムのエントロピーが前記しきい値以上あるいは前記しきい値よりも大きい場合に、当該分割領域を複数の分割領域にさらに分割する処理を繰り返し行わせるためのものである。   An aspect of the control program according to the present invention is a control program for causing a computer device to determine whether or not an object shown in a processing target image corresponds to a comparison target. a) a step of extracting a target object region in which the target object is shown from a processing target image in which the target object is shown; (b) a step of dividing the target object region; and (c) the step (b). A step of obtaining a feature amount indicating the feature of the target object based on the plurality of divided regions generated in step (d), and (d) whether the target object corresponds to a comparison target based on the feature amount. And determining a threshold value used in the region division based on the entropy of the luminance histogram in the entire object region in the step (b), and dividing the object region. In the area If the entropy of the degree histogram is greater than the threshold value or more or the threshold value is for repetitively perform a process further divides the divided regions into a plurality of divided regions.

また、本発明に係る判定方法の一態様は、処理対象画像に映る対象物が比較対象に相当するか否かを判定する判定装置での判定方法であって、(a)対象物が映る処理対象画像から、前記対象物が映る対象物領域を抽出する工程と、(b)前記対象物領域に対して領域分割を行う工程と、(c)前記工程(b)で生成された複数の分割領域に基づいて、前記対象物の特徴を示す特徴量を取得する工程と、(d)前記特徴量に基づいて、前記対象物が比較対象に相当するか否かを判定する工程とを備え、前記工程(b)において、前記対象物領域全体での輝度ヒストグラムのエントロピーに基づいて、前記領域分割で使用されるしきい値が決定され、前記対象物領域の分割領域での輝度ヒストグラムのエントロピーが前記しきい値以上あるいは前記しきい値よりも大きい場合に、当該分割領域を複数の分割領域にさらに分割する処理が繰り返し行われる。   Moreover, one aspect of the determination method according to the present invention is a determination method in a determination device that determines whether or not an object shown in a processing target image corresponds to a comparison target, and (a) a process in which the target object is shown A step of extracting a target region in which the target object is reflected from a target image; (b) a step of performing region division on the target region; and (c) a plurality of divisions generated in step (b). Obtaining a feature amount indicating a feature of the object based on a region; and (d) determining whether the object corresponds to a comparison target based on the feature amount, In the step (b), a threshold value used in the region division is determined based on the entropy of the luminance histogram in the entire object region, and the entropy of the luminance histogram in the divided region of the object region is Above the threshold or Is greater than the serial threshold, the process further divides the divided regions into a plurality of divided regions is repeated.

本発明の一態様によれば、処理対象画像に映る対象物が比較対象に相当するか否かを判定する際の判定精度が向上する。   According to one aspect of the present invention, the determination accuracy when determining whether or not an object shown in a processing target image corresponds to a comparison target is improved.

画像処理システムの構成を示す図である。It is a figure which shows the structure of an image processing system. 撮像画像の一例を模式的に示す図である。It is a figure which shows an example of a captured image typically. 判定装置の構成を示す図である。It is a figure which shows the structure of a determination apparatus. 判定装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a determination apparatus. お菓子領域の一例を模式的に示す図である。It is a figure which shows an example of a candy area | region typically. 背景画像の一例を模式的に示す図である。It is a figure which shows an example of a background image typically. 背景差分画像の一例を模式的に示す図である。It is a figure which shows an example of a background difference image typically. 外形テンプレートの一例を模式的に示す図である。It is a figure which shows an example of an external shape template typically. テンプレートマッチングを説明するための図である。It is a figure for demonstrating template matching. お菓子領域の抽出処理を説明するための図である。It is a figure for demonstrating the extraction process of a candy area | region. 領域分割部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an area | region division part. お菓子領域での輝度ヒストグラムの一例を示す図である。It is a figure which shows an example of the brightness | luminance histogram in a confectionery area | region. お菓子領域が分割される様子を示す図である。It is a figure which shows a mode that a confectionery area | region is divided | segmented. 分割領域がさらに分割される様子を示す図である。It is a figure which shows a mode that a division area is further divided | segmented. 領域分割部で生成される複数の一様分割領域の一例を示す図である。It is a figure which shows an example of the several uniform division area produced | generated by an area division part. 大きさ情報及び距離情報の2次元ヒストグラムの一例を示す図である。It is a figure which shows an example of the two-dimensional histogram of magnitude | size information and distance information. 大きさ情報の1次元ヒストグラムの一例を示す図である。It is a figure which shows an example of the one-dimensional histogram of magnitude | size information. お菓子の周方向の向きが互いに異なる複数のお菓子領域を示す図である。It is a figure which shows the some confectionery area | region from which the direction of the circumferential direction of a candy differs mutually. お菓子領域の中心と、当該お菓子領域に映るお菓子の中心とがずれている様子を示す図である。It is a figure which shows a mode that the center of the candy area | region and the center of the candy reflected in the said candy area | region have shifted | deviated. 標準特徴量が取得されるお菓子領域を示す図である。It is a figure which shows the confectionery area | region from which standard feature-value is acquired. 第1判定評価値と第2判定評価値の関係を示す図である。It is a figure which shows the relationship between a 1st determination evaluation value and a 2nd determination evaluation value.

<画像処理システム1の構成について>
図1は実施の形態に係る画像処理システム1の構成を示す図である。本実施の形態に係る画像処理システム1は、画像処理を用いて、対象物が比較対象に相当するか否かを判定するシステムである。画像処理システム1は、例えば、工場内において、クッキーやチョコレートなどの円形のお菓子が製造される製造ラインに導入される。画像処理システム1は、実稼働中の製造ラインにおいて製造されるお菓子が正しく製造されたお菓子に相当するか否かを判定する。言い換えれば、画像処理システム1は、実稼働中の製造ラインで製造されるお菓子が正しく製造されているか否か、つまり当該お菓子の良否を判定する。したがって、本実施の形態では、対象物はお菓子である。また、対象物と比較される比較対象は、正しく製造されたお菓子(良品のお菓子)である。なお、対象物はお菓子以外であっても良い。また当該対象物の外形は円形以外であっても良い。
<Configuration of Image Processing System 1>
FIG. 1 is a diagram illustrating a configuration of an image processing system 1 according to an embodiment. The image processing system 1 according to the present embodiment is a system that determines whether an object corresponds to a comparison object by using image processing. For example, the image processing system 1 is introduced into a production line in which a circular candy such as a cookie or chocolate is manufactured in a factory. The image processing system 1 determines whether the confectionery manufactured in the production line in operation corresponds to a confectionery manufactured correctly. In other words, the image processing system 1 determines whether or not the candy manufactured on the production line in actual operation is manufactured correctly, that is, the quality of the candy. Therefore, in this Embodiment, a target object is a candy. Moreover, the comparison object compared with a target object is the confectionery (good quality confectionery) manufactured correctly. The object may be other than sweets. Further, the outer shape of the object may be other than a circle.

図1に示されるように、画像処理システム1は、撮像装置2及び判定装置3を備えている。撮像装置2は、製造ラインで製造されたお菓子を撮像し、当該お菓子が映った撮像画像10を生成して判定装置3に出力する。製造ラインでは、搬送コンベアによってお菓子が搬送され、撮像装置2は搬送されるお菓子を撮像する。製造された複数のお菓子は、不揃いな向きで搬送コンベア上を一列で移動する。本実施の形態では、撮像装置2で生成される撮像画像10は、カラー画像であるが、グレースケール画像であっても良い。   As shown in FIG. 1, the image processing system 1 includes an imaging device 2 and a determination device 3. The imaging device 2 images the confectionery manufactured on the manufacturing line, generates a captured image 10 in which the confectionery is reflected, and outputs the captured image 10 to the determination device 3. In the production line, the confectionery is conveyed by the conveyor, and the imaging device 2 images the confectionery being conveyed. A plurality of manufactured confectionery moves in a line on the transport conveyor in an irregular direction. In the present embodiment, the captured image 10 generated by the imaging device 2 is a color image, but may be a grayscale image.

図2は撮像装置2で得られる撮像画像10の一例を模式的に示す図である。図2に示される撮像画像10には、正しく製造されたお菓子100、つまり良品のお菓子100が映っている。また撮像画像10には、背景である搬送コンベア101が映っている。良品のお菓子100の一方主面100aには、例えばアルファベット「A」の模様が示されている。なお、良品のお菓子100の模様はこれ以外であっても良い。また、良品のお菓子100の両主面に模様が付されていても良い。   FIG. 2 is a diagram schematically illustrating an example of a captured image 10 obtained by the imaging apparatus 2. The captured image 10 shown in FIG. 2 shows a properly manufactured candy 100, that is, a non-defective candy 100. Further, the picked-up image 10 shows the conveyor 101 that is the background. On one main surface 100a of the non-defective confectionery 100, for example, a pattern of alphabet “A” is shown. The pattern of the non-defective candy 100 may be other than this. Moreover, the pattern may be attached | subjected to both the main surfaces of the good confectionery 100.

本実施の形態では、お菓子100は、その一方主面100aを上側にして、搬送コンベア101上を移動する。搬送コンベア101上では、複数のお菓子100が一列になって移動する。そして、撮像装置2は、お菓子100の一方主面100a側から当該お菓子100を撮像する。したがって、撮像画像10には、お菓子100の一方主面100aが映っている。   In the present embodiment, the confectionery 100 moves on the conveyor 101 with its one main surface 100a facing upward. On the conveyor 101, a plurality of sweets 100 move in a line. And the imaging device 2 images the said candy 100 from the one main surface 100a side of the candy 100. FIG. Therefore, the captured image 10 shows the one main surface 100a of the candy 100.

判定装置3は、撮像装置2から入力される撮像画像10に映るお菓子100が正しく製造されたものに相当するか否か、つまり当該お菓子100が正しく製造されているか否かを判定し、その判定結果を出力する。この判定結果は、工場内に設けられた、製造ラインの動作を管理する制御部に入力される。制御部は、入力された判定結果に基づいて各種動作を行う。以後、判定装置3が、撮像画像10に映るお菓子100が正しく製造されているか否かを判定する処理を「お菓子判定処理」と呼ぶ。   The determination device 3 determines whether or not the candy 100 reflected in the captured image 10 input from the imaging device 2 corresponds to a correctly manufactured product, that is, whether or not the candy 100 is correctly manufactured. The determination result is output. The determination result is input to a control unit that manages the operation of the production line provided in the factory. The control unit performs various operations based on the input determination result. Hereinafter, a process in which the determination device 3 determines whether or not the candy 100 shown in the captured image 10 is correctly manufactured is referred to as a “candy determination process”.

本実施の形態では、判定装置3は、一種のコンピュータ装置であって、CPU(Central Processing Unit)300及び記憶部310を備えている。記憶部310は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の、CPU300が読み取り可能な非一時的な記録媒体で構成されている。記憶部310には、判定装置3(コンピュータ装置)を制御するための制御プログラム311が記憶されている。CPU300が記憶部310内の制御プログラム311を実行することによって、判定装置3には様々な機能ブロックが形成される。   In the present embodiment, the determination device 3 is a kind of computer device, and includes a CPU (Central Processing Unit) 300 and a storage unit 310. The storage unit 310 includes a non-transitory recording medium that can be read by the CPU 300, such as a ROM (Read Only Memory) and a RAM (Random Access Memory). The storage unit 310 stores a control program 311 for controlling the determination device 3 (computer device). Various function blocks are formed in the determination apparatus 3 by the CPU 300 executing the control program 311 in the storage unit 310.

なお、判定装置3の各種機能の一部又は全部は、その機能の実現のためにプログラム(ソフトフェア)が不要な、論理回路等を含む専用のハードウェア回路で実現しても良い。また記憶部310は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていても良い。記憶部310は、例えば、小型のハードディスクドライブ及びSSD(Solid State Drive)等を備えていても良い。   Note that some or all of the various functions of the determination device 3 may be realized by a dedicated hardware circuit including a logic circuit or the like that does not require a program (software) to realize the function. The storage unit 310 may include a computer-readable non-transitory recording medium other than the ROM and RAM. The storage unit 310 may include, for example, a small hard disk drive and an SSD (Solid State Drive).

図3は判定装置3が有する複数の機能ブロックを示す図である。図3に示されるように、判定装置3は、機能ブロックとして、変換部30、抽出部31、領域分割部32、特徴量取得部33及び判定部34を備えている。   FIG. 3 is a diagram illustrating a plurality of functional blocks included in the determination device 3. As illustrated in FIG. 3, the determination device 3 includes a conversion unit 30, an extraction unit 31, a region division unit 32, a feature amount acquisition unit 33, and a determination unit 34 as functional blocks.

変換部30は、撮像装置2から入力される撮像画像10をカラー画像からグレースケール画像に変換し、変換後の撮像画像10を撮像画像11として出力する。抽出部31は、撮像画像11から、お菓子100が映るお菓子領域(対象物領域)23を抽出する。   The conversion unit 30 converts the captured image 10 input from the imaging device 2 from a color image to a grayscale image, and outputs the converted captured image 10 as the captured image 11. The extraction unit 31 extracts a candy region (object region) 23 in which the candy 100 is reflected from the captured image 11.

領域分割部32は、抽出部31で抽出されたお菓子領域23に対して領域分割を行う。ここで、領域分割とは、お菓子領域23を、それぞれにおいて輝度が一様な複数の分割領域に分割する処理である。言い換えれば、領域分割とは、お菓子領域23を、それぞれにおいて特徴が一様な複数の分割領域に分割する処理である。   The area dividing unit 32 performs area division on the candy area 23 extracted by the extracting unit 31. Here, the area division is a process of dividing the confectionery area 23 into a plurality of divided areas each having a uniform luminance. In other words, the area division is a process of dividing the candy area 23 into a plurality of divided areas each having a uniform feature.

特徴量取得部33は、領域分割部32で生成された複数の分割領域に基づいて、撮像画像11に映るお菓子100の特徴を示す特徴量を取得する。判定部34は、特徴量取得部33で取得された特徴量に基づいて、撮像画像11に映るお菓子100が正しく製造されているか否かを判定し、その判定結果21を出力する。言い換えれば、判定部34は、特徴量取得部33で取得された特徴量に基づいて、撮像装置2で得られた撮像画像10に映るお菓子100が良品か否かを判定し、その判定結果21を出力する。本実施の形態では、判定部34は、撮像画像11から求められた特徴量と、良品のお菓子100の特徴を示す標準特徴量(基準特徴量)22とを比較し、その比較結果に基づいて、当該撮像画像11に映るお菓子100が正しく製造されているか否かを判定する。標準特徴量22は、記憶部310に予め記憶されている。   The feature amount acquisition unit 33 acquires a feature amount indicating the feature of the candy 100 shown in the captured image 11 based on the plurality of divided regions generated by the region dividing unit 32. The determination unit 34 determines whether the candy 100 shown in the captured image 11 is correctly manufactured based on the feature amount acquired by the feature amount acquisition unit 33, and outputs the determination result 21. In other words, the determination unit 34 determines whether or not the candy 100 shown in the captured image 10 obtained by the imaging device 2 is a good product based on the feature amount acquired by the feature amount acquisition unit 33, and the determination result 21 is output. In the present embodiment, the determination unit 34 compares the feature amount obtained from the captured image 11 with the standard feature amount (reference feature amount) 22 indicating the feature of the non-defective candy 100, and based on the comparison result. Then, it is determined whether or not the candy 100 shown in the captured image 11 is correctly manufactured. The standard feature 22 is stored in advance in the storage unit 310.

<お菓子判定処理のフローについて>
次に、製造ラインが実稼働中において、判定装置3がお菓子判定処理を行う際の当該判定装置3の一連の動作について説明する。図4はお菓子判定処理を示すフローチャートである。
<About the flow of candy determination processing>
Next, a series of operations of the determination device 3 when the determination device 3 performs the candy determination process while the production line is in actual operation will be described. FIG. 4 is a flowchart showing the candy determination process.

図4に示されるように、ステップs1において、判定装置3は、撮像装置2から撮像画像10が入力されると、変換部30において当該撮像画像10をカラー画像からグレースケール画像に変換し、それよって得られた撮像画像11を処理対象とする。以後、製造ラインが実稼働中での処理対象の撮像画像11を「処理対象画像11」と呼ぶことがある。   As shown in FIG. 4, in step s1, when the captured image 10 is input from the imaging device 2, the determination device 3 converts the captured image 10 from a color image to a grayscale image in the conversion unit 30. Therefore, the captured image 11 obtained is set as a processing target. Hereinafter, the captured image 11 to be processed while the production line is in operation may be referred to as “processing target image 11”.

次にステップs2において、抽出部31は、処理対象画像11から、お菓子100が映るお菓子領域23を抽出する。次にステップs3において、領域分割部32は、抽出部31で抽出されたお菓子領域23に対して領域分割を行う。次にステップs4において、特徴量取得部33は、領域分割部32で生成された複数の分割領域に基づいて、撮像画像11に映るお菓子100の特徴を示す特徴量を取得する。以後、お菓子100の特徴を示す特徴量を「お菓子特徴量」と呼ぶことがある。   Next, in step s <b> 2, the extraction unit 31 extracts a candy region 23 in which the candy 100 is reflected from the processing target image 11. Next, in step s3, the region dividing unit 32 performs region division on the candy region 23 extracted by the extracting unit 31. Next, in step s4, the feature amount acquisition unit 33 acquires a feature amount indicating the feature of the candy 100 shown in the captured image 11 based on the plurality of divided regions generated by the region dividing unit 32. Hereinafter, the feature amount indicating the feature of the candy 100 may be referred to as a “confectionery feature amount”.

次にステップs5において、判定部34は、特徴量取得部33で取得されたお菓子特徴量に基づいて、撮像画像11に映るお菓子100が正しく製造されているか否かを判定する。そして、判定部34は、ステップs6において、ステップs5での判定結果21を、工場内に設けられた制御部に出力する。制御部は、撮像画像10に映るお菓子100が正しく製造されていない場合には、言い換えれば、撮像画像10に映るお菓子100が良品に相当しない場合には、例えば、スピーカから警告音を出力したり、ディプレイに警告情報を表示したりするなどして、外部に警告を発する。   Next, in step s5, the determination unit 34 determines whether the candy 100 shown in the captured image 11 is correctly manufactured based on the candy feature amount acquired by the feature amount acquisition unit 33. And the determination part 34 outputs the determination result 21 in step s5 to the control part provided in the factory in step s6. When the candy 100 reflected in the captured image 10 is not manufactured correctly, in other words, when the candy 100 reflected in the captured image 10 does not correspond to a non-defective product, for example, the control unit outputs a warning sound from a speaker. Or display warning information on the display, etc. to issue a warning to the outside.

その後、判定装置3は、新たな撮像画像10が入力されると、当該撮像画像10から得られる撮像画像11を新たな処理対象として、ステップs2〜s6を実行する。以後、判定装置3は、撮像画像10が入力されるたびに、同様の動作を行う。   Thereafter, when a new captured image 10 is input, the determination device 3 executes steps s2 to s6 using the captured image 11 obtained from the captured image 10 as a new processing target. Thereafter, the determination device 3 performs the same operation every time the captured image 10 is input.

<各構成要素の詳細説明>
以下に、抽出部31、領域分割部32、特徴量取得部33及び判定部34の動作についてさらに詳細に説明する。
<Detailed description of each component>
Hereinafter, operations of the extraction unit 31, the region division unit 32, the feature amount acquisition unit 33, and the determination unit 34 will be described in more detail.

<抽出部について>
図5は、抽出部31が撮像画像11から抽出するお菓子領域23の一例を示す図である。撮像画像11からお菓子領域23を抽出する方法としては様々な方法がある。
<About the extraction unit>
FIG. 5 is a diagram illustrating an example of the candy region 23 extracted from the captured image 11 by the extraction unit 31. There are various methods for extracting the candy region 23 from the captured image 11.

例えば、お菓子100の外形が円形であることを利用した第1の抽出方法がある。この第1の抽出方法では、まず、撮像画像11に対してエッジ検出が行われてエッジ画像が生成される。エッジ画像の生成方法としては、例えば、Sobel法、Laplacian法、Canny法などが使用される。次に、生成されたエッジ画像から円形領域が抽出される。円形領域の抽出方法としては、例えばハフ変換が使用される。そして、エッジ画像における当該円形領域の位置と同じ位置に存在する撮像画像11での円形領域が、お菓子領域23とされる。   For example, there exists the 1st extraction method using the external shape of the candy 100 being circular. In the first extraction method, first, edge detection is performed on the captured image 11 to generate an edge image. As an edge image generation method, for example, Sobel method, Laplacian method, Canny method and the like are used. Next, a circular area is extracted from the generated edge image. For example, Hough transform is used as a method for extracting a circular region. And the circular area | region in the captured image 11 which exists in the same position as the position of the said circular area | region in an edge image is made into the candy area | region 23. FIG.

別の方法としては、背景差分法とラベリングを用いて撮像画像11からお菓子領域23を抽出する第2の抽出方法がある。この第2の抽出方法では、まず、撮像画像11と背景画像(撮像画像11の背景だけが映る画像)との差分を示す背景差分画像が生成され、生成された背景差分画像が2値化される。そして、2値の背景差分画像に対して4連結等のラベリングが行われる。そして、2値の背景差分画像における、ラベリングの結果得られた連結領域(独立領域)の位置と同じ位置に存在する撮像画像11での部分領域が、お菓子領域23とされる。   As another method, there is a second extraction method for extracting the candy region 23 from the captured image 11 using the background subtraction method and labeling. In this second extraction method, first, a background difference image indicating a difference between the captured image 11 and a background image (an image showing only the background of the captured image 11) is generated, and the generated background difference image is binarized. The Then, labeling such as 4-connection is performed on the binary background difference image. And the partial area | region in the captured image 11 which exists in the same position as the position of the connection area | region (independent area | region) obtained as a result of labeling in a binary background difference image is made into the candy area | region 23. FIG.

本実施の形態では、抽出部31は、上記の2つの方法とは異なる方法で、撮像画像11からお菓子領域23を抽出する。以下に本実施の形態に係る抽出部31の動作について説明する。なお、抽出部31は、上記の2つの方法のどちらか一方を用いて撮像画像11からお菓子領域23を抽出しても良い。   In the present embodiment, the extraction unit 31 extracts the candy region 23 from the captured image 11 by a method different from the above two methods. The operation of the extraction unit 31 according to this embodiment will be described below. In addition, the extraction part 31 may extract the candy area | region 23 from the captured image 11 using either one of said two methods.

まず、抽出部31は、撮像画像11と背景画像60(撮像画像11の背景だけが映る画像)との差分を示す背景差分画像を生成し、生成した背景差分画像を2値化する。図6は背景画像60を模式的に示す図であって、図7は2値の背景差分画像61を模式的に示す図である。背景画像60は、判定装置3の記憶部310に予め記憶されている。   First, the extraction unit 31 generates a background difference image indicating a difference between the captured image 11 and the background image 60 (an image showing only the background of the captured image 11), and binarizes the generated background difference image. FIG. 6 is a diagram schematically showing the background image 60, and FIG. 7 is a diagram schematically showing a binary background difference image 61. The background image 60 is stored in advance in the storage unit 310 of the determination device 3.

次に、抽出部31は、2値の背景差分画像61に対して、お菓子100の外形を示す2値の外形テンプレート62を用いたテンプレートマッチングを行う。つまり、抽出部31は、背景差分画像61において、外形テンプレート62と類似する領域がどこに存在するかを特定する。言い換えると、抽出部31は、背景差分画像61において、外形テンプレート62が示すお菓子100の外形と一致する領域がどこに存在するかを特定する。図8は外形テンプレート62を模式的に示す図である。外形テンプレート62は、判定装置3の記憶部310に予め記憶されている。外形テンプレート62の外形は、例えば正方形である。   Next, the extraction unit 31 performs template matching on the binary background difference image 61 using a binary outer shape template 62 indicating the outer shape of the candy 100. That is, the extraction unit 31 specifies where in the background difference image 61 a region similar to the outer shape template 62 exists. In other words, the extraction unit 31 specifies where in the background difference image 61 there is an area that matches the outline of the candy 100 indicated by the outline template 62. FIG. 8 is a diagram schematically showing the outer shape template 62. The outline template 62 is stored in advance in the storage unit 310 of the determination device 3. The outer shape of the outer shape template 62 is, for example, a square.

テンプレートマッチングでは、抽出部31は、図9に示されるように、背景差分画像61上で外形テンプレート62をラスタスキャン方向に少しずつ移動させる。言い換えれば、抽出部31は、背景差分画像61上で外形テンプレート62をラスタスキャンさせる。このとき、抽出部31は、外形テンプレート62の各位置において、当該外形テンプレート62と、それに重なる、背景差分画像61の部分領域とのAND画像を生成する。これにより、複数の2値のAND画像が生成される。そして、抽出部31は、生成した複数のAND画像のうち、画素値が“1”の画素(高輝度画素)の数が最も多いAND画像の生成で使用された外形テンプレート62の背景差分画像61上の位置を特定する。この位置は、背景差分画像61において、外形テンプレート62と類似した領域が存在する位置である。そして、抽出部31は、図10に示されるように、特定した位置と同じ位置に存在する撮像画像11での部分領域11aを、お菓子領域23として抽出する。言い換えれば、抽出部31は、特定した位置と同じ位置に外形テンプレート62を撮像画像11に配置した際に、当該外形テンプレート62と重なる、撮像画像11での部分領域11aを、お菓子領域23として抽出する。このとき、本実施の形態では、当該部分領域11aにおいて、その上の外形テンプレート62が示す円形よりも外側の各画素の画素値を零としたものお菓子領域23とする。抽出部31で抽出されるお菓子領域23はグレースケール画像である。本実施の形態では、お菓子領域23の外形は四角形であるが、円形であっても良い。   In template matching, the extraction unit 31 moves the outline template 62 little by little in the raster scan direction on the background difference image 61 as shown in FIG. In other words, the extraction unit 31 raster scans the outline template 62 on the background difference image 61. At this time, the extraction unit 31 generates an AND image of the outline template 62 and a partial region of the background difference image 61 that overlaps the outline template 62 at each position of the outline template 62. Thereby, a plurality of binary AND images are generated. Then, the extraction unit 31 uses the background difference image 61 of the outer shape template 62 used in generating the AND image having the largest number of pixels (high luminance pixels) having the pixel value “1” among the plurality of generated AND images. Identify the top position. This position is a position where an area similar to the outline template 62 exists in the background difference image 61. And the extraction part 31 extracts the partial area | region 11a in the captured image 11 which exists in the same position as the specified position as FIG. In other words, the extraction unit 31 sets, as the candy region 23, the partial region 11a in the captured image 11 that overlaps the external shape template 62 when the external shape template 62 is arranged in the captured image 11 at the same position as the specified position. Extract. At this time, in this embodiment, in the partial area 11a, the confectionery area 23 in which the pixel value of each pixel outside the circle indicated by the outer shape template 62 on the partial area 11a is set to zero is used. The confectionery region 23 extracted by the extraction unit 31 is a grayscale image. In the present embodiment, the outer shape of the confectionery region 23 is a square, but it may be a circle.

<領域分割部について>
本実施の形態では、領域分割部32は、輝度ヒストグラムのエントロピーを用いて、お菓子領域23に対する領域分割を行う。領域分割部32は、お菓子領域23の分割領域での輝度ヒストグラムのエントロピーがしきい値以上の場合に、当該分割領域を複数の分割領域にさらに分割する処理を繰り返し行う。
<Region division unit>
In the present embodiment, the region dividing unit 32 performs region division on the candy region 23 using the entropy of the luminance histogram. When the entropy of the luminance histogram in the divided area of the candy area 23 is equal to or greater than the threshold value, the area dividing unit 32 repeatedly performs a process of further dividing the divided area into a plurality of divided areas.

図11は領域分割部32の動作を示すフローチャートである。図11に示されるように、ステップs31において、領域分割部32は、領域分割で使用するしきい値を決定する。具体的には、領域分割部32は、お菓子領域23全体での輝度ヒストグラムを求める。そして、領域分割部32は、求めた輝度ヒストグラムのエントロピーを求める。そして、領域分割部32は、求めたエントロピーに基づいてしきい値を決定する。   FIG. 11 is a flowchart showing the operation of the area dividing unit 32. As shown in FIG. 11, in step s31, the region dividing unit 32 determines a threshold value used in region division. Specifically, the area dividing unit 32 obtains a luminance histogram in the entire candy area 23. Then, the region dividing unit 32 obtains the entropy of the obtained luminance histogram. Then, the region dividing unit 32 determines a threshold value based on the obtained entropy.

図12はお菓子領域23全体での輝度ヒストグラム150の一例を示す図である。輝度ヒストグラム150は、お菓子領域23を構成する複数の画素の輝度の分布を示している。図12の横軸は輝度を示している。図12の縦軸は、お菓子領域23において、横軸に示される輝度を有する画素の数、つまり頻度を示している。本実施の形態では、画素の輝度は、例えば8ビットで表現されており、十進数表現で“0”から“255”の値をとる。   FIG. 12 is a diagram illustrating an example of the luminance histogram 150 in the entire candy region 23. The luminance histogram 150 shows the luminance distribution of a plurality of pixels constituting the confectionery region 23. The horizontal axis in FIG. 12 indicates luminance. The vertical axis in FIG. 12 indicates the number of pixels having the luminance shown on the horizontal axis, that is, the frequency in the confectionery region 23. In the present embodiment, the luminance of the pixel is expressed by 8 bits, for example, and takes a value from “0” to “255” in decimal notation.

領域分割部32は、以下の式(1)を使用して、輝度ヒストグラム150のエントロピーEAを求める。   The area dividing unit 32 obtains the entropy EA of the luminance histogram 150 using the following formula (1).

Figure 0006438774
Figure 0006438774

ここで、式(1)中のPAiは、お菓子領域23での輝度“i”の出現確率を示している。出現確率PAiは、お菓子領域23において輝度が“i”である画素の数KAiと、お菓子領域23の画素の総数KAtotalを用いて、以下の式(2)で表される。   Here, PAi in Equation (1) indicates the appearance probability of the luminance “i” in the confectionery region 23. The appearance probability PAi is expressed by the following equation (2) using the number KAi of pixels having luminance “i” in the candy area 23 and the total number KAtotal of pixels in the candy area 23.

Figure 0006438774
Figure 0006438774

例えば、KAtotal=1000とし、お菓子領域23において、輝度が“255”である画素の数KA255=10であるとすると、PA255=10/1000となる。   For example, assuming that KAtotal = 1000 and the number of pixels having a luminance of “255” KA255 = 10 in the confectionery region 23, PA255 = 10/1000.

エントロピーEAは、輝度ヒストグラム150の分布のばらつきの度合いを示している。エントロピーEAが大きい場合には、輝度ヒストグラム150の分布がばらついていると言える。つまり、お菓子領域23での輝度のばらつきが大きいと言える。一方で、エントロピーEAが小さい場合には、輝度ヒストグラム150の分布が偏っていると言える。つまり、お菓子領域23での輝度のばらつきが小さいと言える。   Entropy EA indicates the degree of variation in the distribution of luminance histogram 150. When the entropy EA is large, it can be said that the distribution of the luminance histogram 150 varies. That is, it can be said that the variation in luminance in the confectionery region 23 is large. On the other hand, when the entropy EA is small, it can be said that the distribution of the luminance histogram 150 is biased. That is, it can be said that the variation in luminance in the confectionery region 23 is small.

領域分割部32は、エントロピーEAを求めると、以下の式(3)を使用して、領域分割で使用するしきい値Tを求める。   When obtaining the entropy EA, the area dividing unit 32 obtains a threshold value T used in the area division using the following equation (3).

Figure 0006438774
Figure 0006438774

ここで、式(3)中のαは、お菓子領域23の分割態様を調整するための調整パラメータであって、0<α<1である。αが小さくなると、しきい値Tが小さくなることから、領域分割においてお菓子領域23は分割され易くなる。αの値は、判定装置3において良否判定が行われる対象物の種類等に応じて決定される。αの値は記憶部310に予め記憶されている。本実施の形態では、判定装置3がお菓子100の良否判定を適切に行えるようにαの値が実験等によって決定されている。   Here, α in Expression (3) is an adjustment parameter for adjusting the division mode of the confectionery region 23, and 0 <α <1. As α becomes smaller, the threshold value T becomes smaller, so that the confectionery area 23 is easily divided in the area division. The value of α is determined according to the type of the object for which the pass / fail determination is performed in the determination device 3. The value of α is stored in the storage unit 310 in advance. In this Embodiment, the value of (alpha) is determined by experiment etc. so that the determination apparatus 3 can perform the quality determination of the candy 100 appropriately.

領域分割部32は、ステップs31においてしきい値Tを決定すると、ステップs32においてお菓子領域23を初期分割する。ここでは、お菓子領域23は、例えば、図13に示されるように4分割される。本実施の形態では、図13に示されるように、お菓子領域23は、行列状に正方形の4つの分割領域に均等に分割される。領域分割部32は、お菓子領域23を初期分割する場合には、輝度ヒストグラムのエントロピーを使用しない。以後、お菓子領域23の初期分割によって得られた分割領域を「分割領域230」と呼ぶことがある。   After determining the threshold value T in step s31, the area dividing unit 32 initially divides the candy area 23 in step s32. Here, the confectionery area 23 is divided into four as shown in FIG. 13, for example. In this Embodiment, as FIG. 13 shows, the confectionery area | region 23 is equally divided | segmented into four division area | regions of a square in matrix form. The area dividing unit 32 does not use the entropy of the luminance histogram when initially dividing the candy area 23. Hereinafter, the divided area obtained by the initial division of the confectionery area 23 may be referred to as a “divided area 230”.

次にステップs33において、領域分割部32は、処理対象の分割領域を決定する。ステップs32の直後のステップs33では、ステップs32で得られた各分割領域が処理対象とされる。   Next, in step s33, the area dividing unit 32 determines a divided area to be processed. In step s33 immediately after step s32, each divided region obtained in step s32 is a processing target.

次にステップs34において、領域分割部32は、ステップs33で決定した処理対象の各分割領域についての輝度ヒストグラムのエントロピーを求める。具体的には、領域分割部32は、まず、処理対象の分割領域の輝度ヒストグラムを求める。分割領域の輝度ヒストグラムは、当該分割領域を構成する複数の画素の輝度の分布を示している。そして、領域分割部32は、処理対象の分割領域の輝度ヒストグラムのエントロピーEBを以下の式(4)を用いて求める。   Next, in step s34, the area dividing unit 32 obtains the entropy of the luminance histogram for each divided area to be processed determined in step s33. Specifically, the area dividing unit 32 first obtains a luminance histogram of the divided area to be processed. The luminance histogram of the divided area indicates the distribution of the luminance of the plurality of pixels constituting the divided area. Then, the region dividing unit 32 obtains the entropy EB of the luminance histogram of the division region to be processed using the following equation (4).

Figure 0006438774
Figure 0006438774

ここで、式(4)中のPBiは、分割領域での輝度“i”の出現確率を示している。出現確率PBiは、分割領域において輝度が“i”である画素の数KBiと、当該分割領域の画素の総数KBtotalを用いて、以下の式(5)で表される。   Here, PBi in Expression (4) indicates the appearance probability of the luminance “i” in the divided area. The appearance probability PBi is expressed by the following equation (5) using the number KBi of pixels having luminance “i” in the divided area and the total number KBtotal of pixels in the divided area.

Figure 0006438774
Figure 0006438774

分割領域についてのエントロピーEBが大きい場合には、当該分割領域での輝度のばらつきが大きいと言える。一方で、分割領域についてのエントロピーEBが小さい場合には、当該分割領域での輝度のばらつきが小さいと言える。   When the entropy EB for a divided area is large, it can be said that the luminance variation in the divided area is large. On the other hand, when the entropy EB for the divided area is small, it can be said that the variation in luminance in the divided area is small.

ステップs34が実行されると、領域分割部32は、ステップs35において、ステップs33で決定された処理対象の分割領域において、エントロピーEBがしきい値T以上の処理対象の分割領域が存在するか否かを判定する。領域分割部32は、ステップs35において、エントロピーEBがしきい値T以上の処理対象の分割領域が存在すると判定すると、ステップs36において、エントロピーEBがしきい値T以上の処理対象の分割領域をさらに分割する。上記のように、分割領域についてのエントロピーEBが大きい場合には、当該分割領域での輝度のばらつきが大きいと言えることから、領域分割部32は、輝度のばらつきが大きい処理対象の分割領域をさらに分割すると言える。言い換えれば、領域分割部32は、特徴が一様でない処理対象の分割領域をさらに分割する。ステップs36では、ステップs32と同様に、エントロピーEBがしきい値T以上の処理対象の分割領域は、行列状に正方形の4つの分割領域にさらに均等に分割される。図14は、ステップs32での初期分割によって得られた4つの分割領域230のうちの左上の分割領域230がさらに4つの分割領域231に分割される様子を示す図である。   When step s34 is executed, in step s35, the region dividing unit 32 determines whether there is a processing target divided region having an entropy EB equal to or greater than the threshold T in the processing target divided region determined in step s33. Determine whether. If the area dividing unit 32 determines in step s35 that there is a divided area to be processed whose entropy EB is equal to or greater than the threshold value T, in step s36, the area dividing unit 32 further determines a divided area to be processed whose entropy EB is equal to or greater than the threshold value T. To divide. As described above, when the entropy EB for a divided region is large, it can be said that the luminance variation in the divided region is large. Therefore, the region dividing unit 32 further selects a processing target divided region having a large luminance variation. It can be said that it is divided. In other words, the area dividing unit 32 further divides a divided area to be processed whose features are not uniform. In step s36, as in step s32, the division area to be processed whose entropy EB is greater than or equal to the threshold value T is further equally divided into four square square division areas. FIG. 14 is a diagram showing how the upper left divided region 230 among the four divided regions 230 obtained by the initial division in step s32 is further divided into four divided regions 231.

ステップs36が実行されると、領域分割部32は再度ステップs33を実行して、処理対象の分割領域をあらたに決定する。ステップs36の直後のステップs33では、当該ステップs36で得られた新たな分割領域であって、所定の大きさよりも大きい分割領域が処理対象とされる。その後、領域分割部32は、同様にステップs34以降を実行する。   When step s36 is executed, the area dividing unit 32 executes step s33 again to newly determine the division area to be processed. In step s33 immediately after step s36, a new divided area obtained in step s36, which is larger than a predetermined size, is processed. Thereafter, the area dividing unit 32 similarly executes step s34 and subsequent steps.

ステップs35において、領域分割部32は、エントロピーEBがしきい値T以上の処理対象の分割領域が存在しないと判定すると、お菓子領域23に対する領域分割を終了する。   In step s35, if the area dividing unit 32 determines that there is no divided area to be processed having an entropy EB equal to or greater than the threshold value T, the area dividing unit 32 ends the area division for the candy area 23.

このように、本実施の形態では、領域分割部32は、分割領域での輝度ヒストグラムのエントロピーEBがしきい値以上の場合に、当該分割領域を複数の分割領域にさらに分割する処理を繰り返し行うため、お菓子領域23が、それぞれにおいてエントロピーEBが小さい複数の分割領域235に分割される。つまり、お菓子領域23は、それぞれにおいて輝度が一様な複数の分割領域235に分割される。   As described above, in the present embodiment, when the entropy EB of the luminance histogram in the divided area is equal to or greater than the threshold value, the area dividing unit 32 repeatedly performs a process of further dividing the divided area into a plurality of divided areas. Therefore, the confectionery region 23 is divided into a plurality of divided regions 235 each having a small entropy EB. That is, the confectionery area 23 is divided into a plurality of divided areas 235 having uniform brightness.

図15は、お菓子領域23に対して領域分割が行われて、お菓子領域23が、それぞれにおいて輝度が一様な複数の分割領域235に分割された様子の概要を示す図である。お菓子領域23において、お菓子100の模様の輪郭を含む領域では、輝度がばらつくことから、図15に示されるように、お菓子領域23では、お菓子100の模様の輪郭付近が細かく分割される。また、お菓子領域23において、お菓子100の外形を含む領域では、輝度がばらつくことから、図15に示されるように、お菓子領域23では、お菓子100の外形付近が細かく分割される。   FIG. 15 is a diagram showing an outline of a state in which region division is performed on the candy region 23 and the candy region 23 is divided into a plurality of divided regions 235 having uniform brightness in each. In the confectionery area 23, since the luminance varies in the area including the outline of the pattern of the candy 100, as shown in FIG. 15, in the confectionery area 23, the vicinity of the outline of the pattern of the candy 100 is finely divided. The Further, in the confectionery area 23, since the luminance varies in an area including the outline of the candy 100, the vicinity of the outline of the candy 100 is finely divided in the candy area 23 as shown in FIG.

このように、分割領域での輝度ヒストグラムのエントロピーEBがしきい値以上の場合に、当該分割領域が複数の分割領域にさらに分割される処理が繰り返し行われることによって、お菓子領域23では、お菓子100の模様の輪郭付近が細かく分割される。したがって、お菓子領域23に対して領域分割が行われることによって生成される複数の分割領域235はお菓子100の特徴を示していると言える。以後、分割領域235を「一様分割領域235」と呼ぶことがある。   As described above, when the entropy EB of the luminance histogram in the divided area is equal to or larger than the threshold value, the process of further dividing the divided area into a plurality of divided areas is repeatedly performed. The vicinity of the pattern outline of the confectionery 100 is finely divided. Therefore, it can be said that the plurality of divided regions 235 generated by performing region division on the candy region 23 show the characteristics of the candy 100. Hereinafter, the divided area 235 may be referred to as a “uniform divided area 235”.

なお上記の例では、分割領域での輝度ヒストグラムのエントロピーEBがしきい値以上の場合に、当該分割領域が複数の分割領域にさらに分割されていたが、分割領域での輝度ヒストグラムのエントロピーEBがしきい値よりも大きい場合に、当該分割領域が複数の分割領域にさらに分割されても良い。また上記の例では、分割領域が4分割されていたが、分割領域の分割数はこれ以外であっても良い。   In the above example, when the entropy EB of the luminance histogram in the divided area is equal to or greater than the threshold value, the divided area is further divided into a plurality of divided areas. However, the entropy EB of the luminance histogram in the divided area is If it is larger than the threshold value, the divided area may be further divided into a plurality of divided areas. In the above example, the divided area is divided into four. However, the number of divided areas may be other than this.

<特徴量取得部について>
本実施の形態では、特徴量取得部33は、領域分割部32で生成された複数の一様分割領域235のそれぞれについて、当該一様分割領域235の大きさを示す大きさ情報と、お菓子領域23の中心から当該一様分割領域235までの距離を示す距離情報とを取得する。そして、特徴量取得部33は、各一様分割領域235についての大きさ情報及び距離情報に基づいてお菓子特徴量を取得する。本実施の形態では、特徴量取得部33は、一様分割領域235についての大きさ情報及び距離情報の2次元ヒストグラムを生成し、当該2次元ヒストグラムをお菓子特徴量とする。
<About the feature acquisition unit>
In the present embodiment, the feature amount acquisition unit 33, for each of the plurality of uniform division regions 235 generated by the region division unit 32, size information indicating the size of the uniform division region 235, and sweets Distance information indicating the distance from the center of the region 23 to the uniform divided region 235 is acquired. And the feature-value acquisition part 33 acquires a sweets feature-value based on the magnitude | size information and distance information about each uniform division area 235. In the present embodiment, the feature amount acquisition unit 33 generates a two-dimensional histogram of size information and distance information for the uniform divided region 235, and uses the two-dimensional histogram as a sweet feature amount.

一様分割領域235の大きさ情報としては、例えば、当該一様分割領域235の横方向あるいは縦方向の長さが採用される。本実施の形態では、一様分割領域235は正方形であることから、一様分割領域235の横方向及び縦方向の長さ同じである。また、一様分割領域235についての距離情報としては、例えば、お菓子領域23の中心から当該一様分割領域235の中心までの距離が採用される。なお、一様分割領域235の大きさ情報として、当該一様分割領域235の対角線の長さが採用されても良い。   As the size information of the uniform divided region 235, for example, the horizontal or vertical length of the uniform divided region 235 is employed. In the present embodiment, since the uniform divided region 235 is a square, the uniform divided region 235 has the same length in the horizontal direction and the vertical direction. Moreover, as distance information about the uniform divided region 235, for example, a distance from the center of the confectionery region 23 to the center of the uniform divided region 235 is employed. As the size information of the uniform divided region 235, the length of the diagonal line of the uniform divided region 235 may be employed.

特徴量取得部33は、各一様分割領域235について、当該一様分割領域235の大きさ情報と距離情報とを一組の情報ペアとして記憶部310に記憶する。そして、特徴量取得部33は、領域分割部32で生成された複数の一様分割領域235にそれぞれ対応する複数組の情報ペアに基づいて、大きさ情報と距離情報との組み合わせについての頻度分布を示す2次元ヒストグラムを生成する。以後、当該2次元ヒストグラムを「2次元評価値ヒストグラム」と呼ぶことがある。   For each uniform divided region 235, the feature amount acquisition unit 33 stores the size information and distance information of the uniform divided region 235 in the storage unit 310 as a set of information pairs. The feature amount acquisition unit 33 then calculates the frequency distribution of combinations of size information and distance information based on a plurality of information pairs respectively corresponding to the plurality of uniform divided regions 235 generated by the region dividing unit 32. Is generated. Hereinafter, the two-dimensional histogram may be referred to as a “two-dimensional evaluation value histogram”.

図16は、2次元評価値ヒストグラム160の一例を示す図である。図16のX方向に沿った第1軸は大きさ情報を示し、図16のY方向に沿った第2軸は距離情報を示している。そして図16のZ方向に沿った第3軸は、複数組の情報ペアにおける、第1軸に示された値を有する大きさ情報と、第2軸に示された値を有する距離情報との組み合わせの頻度を示している。つまり、図16の第3軸は、複数組の情報ペアにおいて、第1軸に示された値を有する大きさ情報と、第2軸に示された値を有する距離情報との組み合わせが何組存在しているかを示している。   FIG. 16 is a diagram illustrating an example of the two-dimensional evaluation value histogram 160. The first axis along the X direction in FIG. 16 indicates size information, and the second axis along the Y direction in FIG. 16 indicates distance information. And the third axis along the Z direction in FIG. 16 is the size information having the value shown on the first axis and the distance information having the value shown on the second axis in a plurality of information pairs. The frequency of combination is shown. In other words, the third axis in FIG. 16 indicates how many combinations of the size information having the value indicated by the first axis and the distance information having the value indicated by the second axis in a plurality of information pairs. Indicates whether it exists.

例えば、複数組の情報ペアにおいて、大きさ情報a1と距離情報b1との組み合わせが8個存在する場合には、第1軸に示されるa1及び第2軸に示されるb1に対応するビンでの頻度が“8”となる。また、複数組の情報ペアにおいて、大きさ情報a5と距離情報b3との組み合わせが3個存在する場合には、第1軸に示されるa5及び第2軸に示されるb3に対応するビンでの頻度が“3”となる。   For example, when there are 8 combinations of size information a1 and distance information b1 in a plurality of information pairs, bins corresponding to a1 shown on the first axis and b1 shown on the second axis The frequency is “8”. In addition, in a plurality of information pairs, when there are three combinations of size information a5 and distance information b3, bins corresponding to a5 shown on the first axis and b3 shown on the second axis The frequency is “3”.

このように、本実施の形態では、お菓子領域23での、一様分割領域の大きさ情報及び距離情報の2次元ヒストグラムがお菓子特徴量とされる。   Thus, in this Embodiment, the two-dimensional histogram of the size information and distance information of a uniform division area in the candy area | region 23 is made into a candy feature-value.

<判定部について>
判定部34は、特徴量取得部33で取得されたお菓子特徴量と、良品のお菓子の特徴を示す標準特徴量とを比較し、その比較結果に基づいて、撮像画像11に映るお菓子100が正しく製造されているか否かを判定する。標準特徴量として、良品のお菓子100が映る撮像画像11から上記と同様にして判定装置3で生成された2次元評価値ヒストグラムが使用される。以後、良品のお菓子100が映る撮像画像11から生成された2次元評価値ヒストグラムを「標準2次元評価値ヒストグラム」と呼ぶ。
<About judgment part>
The determination unit 34 compares the confectionery feature amount acquired by the feature amount acquisition unit 33 with the standard feature amount indicating the feature of the good confectionery, and based on the comparison result, the confectionery reflected in the captured image 11 Determine if 100 is correctly manufactured. As the standard feature amount, a two-dimensional evaluation value histogram generated by the determination device 3 in the same manner as described above from the captured image 11 in which the non-defective candy 100 is reflected is used. Hereinafter, the two-dimensional evaluation value histogram generated from the captured image 11 in which the non-defective candy 100 is reflected is referred to as a “standard two-dimensional evaluation value histogram”.

製造ラインが実稼働していないときには、標準2次元評価値ヒストグラム(標準特徴量)を得るために、搬送コンベア101上に良品のお菓子100が載置される。画像処理システム1では、搬送コンベア101上に載置された良品のお菓子100が映る撮像画像11が生成される。この撮像画像11を「標準撮像画像11」と呼ぶ。画像処理システム1では、抽出部31が標準撮像画像11から、良品のお菓子100が映るお菓子領域23を生成し、領域分割部32が当該お菓子領域23に対して領域分割を行う。そして、特徴量取得部33が領域分割部32で生成された複数の一様分割領域235に基づいて標準2次元評価値ヒストグラム(標準特徴量)を生成する。製造ラインが実稼働していないときに生成された標準2次元評価値ヒストグラムは記憶部310に記憶される。   When the production line is not in actual operation, a non-defective confectionery 100 is placed on the transport conveyor 101 in order to obtain a standard two-dimensional evaluation value histogram (standard feature value). In the image processing system 1, a captured image 11 in which a non-defective confectionery 100 placed on the conveyor 101 is reflected is generated. This captured image 11 is referred to as “standard captured image 11”. In the image processing system 1, the extraction unit 31 generates a candy region 23 in which the non-defective candy 100 is reflected from the standard captured image 11, and the region dividing unit 32 performs region division on the candy region 23. Then, the feature amount acquisition unit 33 generates a standard two-dimensional evaluation value histogram (standard feature amount) based on the plurality of uniform divided regions 235 generated by the region dividing unit 32. A standard two-dimensional evaluation value histogram generated when the production line is not actually operating is stored in the storage unit 310.

製造ラインが実稼働中では、判定部34が、特徴量取得部33で生成された2次元評価値ヒストグラムと、記憶部310内の標準2次元評価値ヒストグラムとを比較し、その比較結果に基づいて、撮像画像11に映るお菓子100が正しく製造されているか否かを判定する。本実施の形態では、判定部34は、特徴量取得部33で生成される2次元評価値ヒストグラムと、記憶部310内の標準2次元評価値ヒストグラムとの間の類似度を求めることによって、両者を比較する。当該類似度を示す値としては、例えば、Bhattacharyya距離が使用される。Bhattacharyya距離が大きいことは類似度が低いことを意味し、Bhattacharyya距離が小さいことは類似度が高いことを意味する。類似度を示す値として他の値を使用しても良い。   When the production line is in actual operation, the determination unit 34 compares the two-dimensional evaluation value histogram generated by the feature amount acquisition unit 33 with the standard two-dimensional evaluation value histogram in the storage unit 310, and based on the comparison result. Then, it is determined whether or not the candy 100 shown in the captured image 11 is correctly manufactured. In the present embodiment, the determination unit 34 obtains the similarity between the two-dimensional evaluation value histogram generated by the feature amount acquisition unit 33 and the standard two-dimensional evaluation value histogram in the storage unit 310, thereby obtaining both. Compare As the value indicating the similarity, for example, a Bhattacharyya distance is used. A large Bhattacharyya distance means a low similarity, and a small Bhattacharyya distance means a high similarity. Another value may be used as a value indicating the degree of similarity.

ここで、処理対象画像11から生成された2次元評価値ヒストグラムと、標準2次元評価値ヒストグラムとの間の類似度が高い場合には、処理対象画像11に映るお菓子100は良品である可能性が高い。したがって、Bhattacharyya距離のように、処理対象画像11から生成された2次元評価値ヒストグラムと、標準2次元評価値ヒストグラムとの間の類似度を示す値は、処理対象画像11に映るお菓子100が良品である確からしさを示す評価値であると言える。言い換えれば、当該類似度を示す値は、処理対象画像11に映るお菓子100が良品である可能性を示す評価値であると言える。以後、当該評価値を「判定評価値」と呼ぶ。   Here, when the similarity between the two-dimensional evaluation value histogram generated from the processing target image 11 and the standard two-dimensional evaluation value histogram is high, the confectionery 100 shown in the processing target image 11 may be a non-defective product. High nature. Therefore, the value indicating the similarity between the two-dimensional evaluation value histogram generated from the processing target image 11 and the standard two-dimensional evaluation value histogram, such as the Bhattacharyya distance, is determined by the confectionery 100 reflected in the processing target image 11. It can be said that this is an evaluation value indicating the certainty of being a good product. In other words, it can be said that the value indicating the similarity is an evaluation value indicating the possibility that the candy 100 shown in the processing target image 11 is a non-defective product. Hereinafter, the evaluation value is referred to as “determination evaluation value”.

本実施の形態では、判定部34は、特徴量取得部33で生成された2次元評価値ヒストグラムと、標準2次元評価値ヒストグラムとの間の類似度が高い場合には、処理対象画像11に映るお菓子100が正しく製造されていると判定し、当該類似度が低い場合には、処理対象画像11に映るお菓子100が正しく製造されていないと判定する。具体的には、判定部34は、特徴量取得部33で生成された2次元評価値ヒストグラムと、標準2次元評価値ヒストグラムとの間のBhattacharyya距離が、しきい値以下の場合には、処理対象画像11に映るお菓子100が正しく製造されていると判定し、当該しきい値よりも大きい場合には、処理対象画像11に映るお菓子100が正しく製造されていないと判定する。言い換えれば、判定部34は、処理対象画像11から得られた2次元評価値ヒストグラムと、標準2次元評価値ヒストグラムとに基づいて生成された判定評価値が、しきい値以下の場合には、撮像画像11に映るお菓子100が良品であると判定し、当該しきい値よりも大きい場合には、撮像画像11に映るお菓子100が不良品であると判定する。撮像画像11に映るお菓子100の模様が崩れていたり、当該お菓子100が欠けたりしている場合には、判定部34では、当該お菓子100が不良品であると判定される。そして、判定部34は、判定結果21を出力する。   In the present embodiment, when the similarity between the two-dimensional evaluation value histogram generated by the feature amount acquisition unit 33 and the standard two-dimensional evaluation value histogram is high, the determination unit 34 displays the processing target image 11. If it is determined that the reflected candy 100 is correctly manufactured and the similarity is low, it is determined that the candy 100 reflected in the processing target image 11 is not correctly manufactured. Specifically, the determination unit 34 performs processing when the Bhattacharyya distance between the two-dimensional evaluation value histogram generated by the feature amount acquisition unit 33 and the standard two-dimensional evaluation value histogram is equal to or less than a threshold value. It is determined that the candy 100 reflected in the target image 11 is manufactured correctly, and if it is larger than the threshold value, it is determined that the candy 100 reflected in the processing target image 11 is not manufactured correctly. In other words, when the determination evaluation value generated based on the two-dimensional evaluation value histogram obtained from the processing target image 11 and the standard two-dimensional evaluation value histogram is equal to or less than the threshold value, the determination unit 34 It is determined that the candy 100 reflected in the captured image 11 is a non-defective product, and if it is greater than the threshold value, the candy 100 reflected in the captured image 11 is determined to be a defective product. When the pattern of the candy 100 reflected in the captured image 11 is broken or the candy 100 is missing, the determination unit 34 determines that the candy 100 is a defective product. Then, the determination unit 34 outputs the determination result 21.

以上のように、本実施の形態に係る判定装置3では、お菓子領域23に対する領域分割の際に使用されるしきい値Tが、そのお菓子領域23に基づいて決定される。したがって、お菓子100が映るお菓子領域23を、そのお菓子100に応じて適切に複数の一様分割領域235に分割することができる。よって、しきい値Tが予め決定されている場合と比較して、お菓子領域23に映るお菓子100の特徴を適切に示すお菓子特徴量を取得することができる。その結果、お菓子100が正しく製造されているか否かを判定する際の判定精度が向上する。   As described above, in the determination device 3 according to the present embodiment, the threshold value T used when dividing the confectionery region 23 is determined based on the confectionery region 23. Therefore, the confectionery area 23 in which the candy 100 is reflected can be appropriately divided into a plurality of uniform divided areas 235 according to the candy 100. Therefore, compared with the case where the threshold value T is determined in advance, it is possible to acquire a candy feature amount that appropriately indicates the feature of the candy 100 reflected in the candy region 23. As a result, the determination accuracy when determining whether or not the candy 100 is correctly manufactured is improved.

また本実施の形態では、複数の一様分割領域235に基づいてお菓子特徴量が取得される際には、一様分割領域235についての大きさ情報及び距離情報が使用される。したがって、各一様分割領域235内の各画素の画素値が使用されてお菓子特徴量が取得される場合と比較して、お菓子特徴量を簡単に取得することができる。よって、撮像画像11に映るお菓子100が正しく製造されているか否かを簡単に判定することができる。   Moreover, in this Embodiment, when a confectionery feature-value is acquired based on the some uniform division area 235, the magnitude | size information and distance information about the uniform division area 235 are used. Therefore, compared with the case where the pixel value of each pixel in each uniform divided region 235 is used and the confectionery feature amount is acquired, the confectionery feature amount can be easily acquired. Therefore, it is possible to easily determine whether or not the candy 100 shown in the captured image 11 is correctly manufactured.

また本実施の形態では、撮像画像11は、不揃いな向きで搬送されるお菓子100が撮像されることによって得られた撮像画像であることから、撮像画像11に映るお菓子100の周方向の向きが常に同じであるとは限らない。つまり、撮像画像11に映るお菓子100の周方向の向きは一定せず、ある撮像画像11に映るお菓子100の姿勢が、別の撮像画像11に映るお菓子100の姿勢を、当該お菓子100の両主面の中心を通る、厚み方向に沿った回転軸の周りに回転させたような姿勢となる可能性がある。したがって、お菓子領域23に映るお菓子100の周方向の向きも一定しない。一方で、お菓子領域23から得られる一様分割領域235の大きさ情報及び距離情報は、当該一様分割領域235がお菓子領域23の中心の周りに回転したとしても変化しない情報である。したがって、お菓子領域23に映るお菓子100の周方向の向きにばらつきがあるとしても、お菓子100が良品であれば、お菓子領域23から得られる一様分割領域235の大きさ情報及び距離情報はばらつきにくい。よって、一様分割領域235の大きさ情報及び距離情報のそれぞれは、撮像画像11に映るお菓子100の周方向の向きの影響を受けにくい情報であると言える。本実施の形では、撮像画像11に映るお菓子100の周方向の向きの影響を受けにくい情報に基づいてお菓子特徴量が取得されることから、撮像画像11に映るお菓子100の周方向の向きが一定しない場合であっても、撮像画像11に映る良品のお菓子100が、不良品であると誤って判定されることを抑制することができる。   Moreover, in this Embodiment, since the captured image 11 is a captured image obtained by imaging the confectionery 100 conveyed in an irregular direction, it is the circumferential direction of the confectionery 100 reflected in the captured image 11. The orientation is not always the same. That is, the circumferential direction of the candy 100 reflected in the captured image 11 is not constant, and the attitude of the candy 100 reflected in one captured image 11 is the orientation of the candy 100 reflected in another captured image 11. There is a possibility that the posture may be rotated around the rotation axis along the thickness direction passing through the centers of the two main surfaces. Therefore, the direction of the circumferential direction of the candy 100 reflected in the candy area 23 is not constant. On the other hand, the size information and the distance information of the uniform divided area 235 obtained from the candy area 23 are information that does not change even if the uniform divided area 235 rotates around the center of the candy area 23. Therefore, even if the direction of the circumferential direction of the candy 100 reflected in the candy area 23 varies, if the candy 100 is a non-defective product, the size information and distance of the uniform divided area 235 obtained from the candy area 23 Information is difficult to vary. Therefore, it can be said that each of the size information and the distance information of the uniform divided region 235 is information that is hardly affected by the circumferential direction of the candy 100 shown in the captured image 11. In the present embodiment, since the confectionery feature amount is acquired based on information that is not easily influenced by the circumferential direction of the candy 100 reflected in the captured image 11, the circumferential direction of the candy 100 reflected in the captured image 11. Even when the orientation of the product is not constant, it is possible to prevent the good confectionery 100 reflected in the captured image 11 from being erroneously determined to be a defective product.

<各種変形例>
以下に本実施の形態の各種変形例について説明する。
<Various modifications>
Hereinafter, various modifications of the present embodiment will be described.

<お菓子特徴量の変形例>
上記の例では、特徴量取得部33は、一様分割領域235の大きさ情報及び距離情報の両方に基づいてお菓子特徴量を取得していたが、一様分割領域235の大きさ情報及び距離情報のどちらか一方に基づいてお菓子特徴量を取得しても良い。例えば、特徴量取得部33は、領域分割部32で生成された複数の一様分割領域235の大きさ情報に基づいてお菓子特徴量を取得しても良い。この場合には、特徴量取得部33は、例えば、領域分割部32で生成された複数の一様分割領域235の大きさ情報の分布を示す1次元ヒストグラムを生成し、当該1次元ヒストグラムをお菓子特徴量とする。図17は一様分割領域235の大きさ情報の1次元ヒストグラムの一例を示す図である。図17の横軸は大きさ情報を示している。図17の縦軸は、領域分割部32で生成された複数の一様分割領域235において、横軸に示される大きさ情報を有する一様分割領域235の数、つまり頻度を示している。
<Variation of confectionery features>
In the above example, the feature amount acquisition unit 33 acquires the confectionery feature amount based on both the size information and the distance information of the uniform divided region 235, but the size information of the uniform divided region 235 and The confectionery feature amount may be acquired based on either one of the distance information. For example, the feature amount acquisition unit 33 may acquire the confectionery feature amount based on the size information of the plurality of uniform division regions 235 generated by the region division unit 32. In this case, for example, the feature amount acquisition unit 33 generates a one-dimensional histogram indicating the distribution of size information of the plurality of uniform divided regions 235 generated by the region dividing unit 32, and uses the one-dimensional histogram. The confectionery feature amount. FIG. 17 is a diagram illustrating an example of a one-dimensional histogram of the size information of the uniform divided region 235. The horizontal axis in FIG. 17 indicates size information. The vertical axis in FIG. 17 indicates the number of uniform divided areas 235 having the size information indicated on the horizontal axis, that is, the frequency, in the plurality of uniform divided areas 235 generated by the area dividing unit 32.

一様分割領域235の大きさ情報の1次元ヒストグラムがお菓子特徴量とされる場合には、製造ラインが実稼働していないときに、判定装置3が、良品のお菓子100が映る撮像画像11から同様にして生成する、一様分割領域235の大きさ情報の1次元ヒストグラム(標準1次元ヒストグラム)が標準特徴量とされる。そして、判定部34は、2次元評価値ヒストグラムが使用される場合と同様に、特徴量取得部33で生成された1次元ヒストグラムと、標準1次元ヒストグラムとを比較し、その比較結果に基づいて、処理対象画像11に映るお菓子100が正しいものであるか否かを判定する。   When the one-dimensional histogram of the size information of the uniform divided region 235 is a candy feature amount, the determination device 3 takes a captured image in which the non-defective candy 100 is reflected when the production line is not actually operating. The one-dimensional histogram (standard one-dimensional histogram) of the size information of the uniform divided region 235 generated in the same manner from 11 is used as the standard feature amount. Then, similarly to the case where the two-dimensional evaluation value histogram is used, the determination unit 34 compares the one-dimensional histogram generated by the feature amount acquisition unit 33 with the standard one-dimensional histogram, and based on the comparison result. Then, it is determined whether or not the candy 100 shown in the processing target image 11 is correct.

また、特徴量取得部33は、領域分割部32で生成された複数の一様分割領域235の距離情報に基づいてお菓子特徴量を取得する場合には、当該複数の一様分割領域235の距離情報の分布を示す1次元ヒストグラムを生成し、当該1次元ヒストグラムをお菓子特徴量とする。   In addition, when the feature amount acquisition unit 33 acquires the confectionery feature amount based on the distance information of the plurality of uniform division regions 235 generated by the region division unit 32, the feature amount acquisition unit 33 sets the plurality of uniform division regions 235. A one-dimensional histogram showing the distribution of distance information is generated, and the one-dimensional histogram is used as a confectionery feature amount.

このように、各一様分割領域235の大きさ情報及び距離情報のどちらか一方に基づいてお菓子特徴量が取得される場合であっても、各一様分割領域235内の各画素の画素値に基づいてお菓子特徴量が取得される場合と比較して、お菓子特徴量を簡単に取得することができる。よって、撮像画像11に映るお菓子100が正しく製造されているか否かを簡単に判定することができる。   As described above, even if the confectionery feature amount is acquired based on either the size information or the distance information of each uniform divided region 235, the pixels of each pixel in each uniform divided region 235 are obtained. Compared with the case where the confectionery feature amount is acquired based on the value, the confectionery feature amount can be easily acquired. Therefore, it is possible to easily determine whether or not the candy 100 shown in the captured image 11 is correctly manufactured.

また、一様分割領域235の大きさ情報及び距離情報のそれぞれは、撮像画像11に映るお菓子100の周方向の向きの影響を受けにくい情報であることから、本変形例においても、撮像画像11に映る良品のお菓子100が不良品であると誤って判定されることを抑制することができる。   In addition, since each of the size information and the distance information of the uniform divided region 235 is information that is not easily influenced by the circumferential direction of the candy 100 shown in the captured image 11, the captured image is also used in the present modification. 11 can be prevented from being erroneously determined to be a non-defective product.

<複数種類の標準特徴量を使用してお菓子の良否判定>
上記のように、一様分割領域235の大きさ情報及び距離情報は、お菓子領域23に映るお菓子100の周方向の向きの影響を受けにくい情報であるものの、お菓子領域23に映るお菓子100の周方向の向きの影響を受けて多少ばらつく。以下にこの点について詳細に説明する。
<Decision determination of confectionery using multiple types of standard features>
As described above, the size information and the distance information of the uniform divided area 235 are information that is not easily influenced by the circumferential direction of the candy 100 reflected in the candy area 23, but is reflected in the candy area 23. It varies somewhat under the influence of the direction of the circumferential direction of the confectionery 100. This point will be described in detail below.

例えば、図18に示されるような、良品のお菓子100が映る4つのお菓子領域23A〜23Dを考える。以下の説明では、お菓子領域23Aから得られたお菓子特徴量が標準特徴量として記憶部310に記憶されているものとする。以後、お菓子領域23Aから得られた複数の一様分割領域235を「複数の標準一様分割領域235」と呼ぶことがある。   For example, consider four candy regions 23A to 23D in which a non-defective candy 100 is shown as shown in FIG. In the following description, it is assumed that the sweet feature amount obtained from the sweet region 23A is stored in the storage unit 310 as the standard feature amount. Hereinafter, the plurality of uniform divided regions 235 obtained from the candy region 23A may be referred to as “a plurality of standard uniform divided regions 235”.

お菓子領域23Bに映るお菓子100Bの周方向の向きは、お菓子領域23Aに映るお菓子100Aをその中心の周りに90°反時計周りに回転させた際の当該お菓子100Aの周方向の向きと同じである。お菓子領域23Cに映るお菓子100Cの周方向の向きは、お菓子領域23Aに映るお菓子100Aをその中心の周りに180°反時計周りに回転させた際の当該お菓子100Aの周方向の向きと同じである。お菓子領域23Dに映るお菓子100Dの周方向の向きは、お菓子領域23Aに映るお菓子100Aをその中心の周りに270°反時計周りに回転させた際の当該お菓子100Aの周方向の向きと同じである。   The circumferential direction of the candy 100B reflected in the candy area 23B is the circumferential direction of the candy 100A when the candy 100A reflected in the candy area 23A is rotated 90 ° counterclockwise around its center. Same as direction. The direction of the circumferential direction of the candy 100C reflected in the candy area 23C is the circumferential direction of the candy 100A when the candy 100A reflected in the candy area 23A is rotated counterclockwise by 180 ° around the center. Same as direction. The direction of the circumferential direction of the candy 100D reflected in the candy area 23D is the circumferential direction of the candy 100A when the candy 100A reflected in the candy area 23A is rotated 270 ° counterclockwise around its center. Same as direction.

上記の例では、お菓子領域23の分割領域がさらに分割される際には、行列状に正方形の4つの分割領域に均等に分割される。そのため、お菓子領域23Bから得られる複数の一様分割領域235は、お菓子領域23Aから得られる複数の標準一様分割領域235を、お菓子領域23Aの中心の周りに90°反時計りに回転させたものと一致する。同様に、お菓子領域23Cから得られる複数の一様分割領域235は、複数の標準一様分割領域235を、お菓子領域23Aの中心の周りに180°反時計周りに回転させたものと一致する。そして、お菓子領域23Dから得られる複数の一様分割領域235は、複数の標準一様分割領域235を、お菓子領域23Aの中心の周りに270°反時計周りに回転させたものと一致する。したがって、複数の標準一様分割領域235の大きさ情報及び距離情報と、お菓子領域23Bから得られる複数の一様分割領域235の大きさ情報及び距離情報と、お菓子領域23Cから得られる複数の一様分割領域235の大きさ情報及び距離情報と、お菓子領域23Dから得られる複数の一様分割領域235の大きさ情報及び距離情報とは互いに一致する。よって、お菓子領域23Bから得られたお菓子特徴量と、お菓子領域23Cから得られたお菓子特徴量と、お菓子領域23Dから得られたお菓子特徴量とは、お菓子領域23Aから得られたお菓子特徴量、つまり標準特徴量と一致する。   In the above example, when the divided area of the confectionery area 23 is further divided, it is equally divided into four square divided areas in a matrix. Therefore, the plurality of uniform divided regions 235 obtained from the candy region 23B counterclockwise the plurality of standard uniform divided regions 235 obtained from the candy region 23A around the center of the candy region 23A. It matches with the rotated one. Similarly, the plurality of uniform divided areas 235 obtained from the candy area 23C coincides with the plurality of standard uniform divided areas 235 rotated by 180 ° counterclockwise around the center of the candy area 23A. To do. The plurality of uniform divided regions 235 obtained from the candy region 23D coincides with the plurality of standard uniform divided regions 235 rotated about 270 ° counterclockwise around the center of the candy region 23A. . Therefore, the size information and distance information of the plurality of standard uniform divided regions 235, the size information and distance information of the plurality of uniform divided regions 235 obtained from the candy region 23B, and the plurality of information obtained from the candy region 23C. The size information and distance information of the uniform divided region 235 and the size information and distance information of the plurality of uniform divided regions 235 obtained from the confectionery region 23D coincide with each other. Therefore, the confectionery feature amount obtained from the confectionery region 23B, the confectionery feature amount obtained from the confectionery region 23C, and the confectionery feature amount obtained from the confectionery region 23D are obtained from the confectionery region 23A. It matches the obtained confectionery feature value, that is, the standard feature value.

このように、あるお菓子領域23に映る良品のお菓子100の周方向の向きが、標準特徴量が取得されたお菓子領域23Aに映る良品のお菓子100Aをその中心の周りに(90×N)°(Nは0以上の整数)反時計回りに回転させた際の当該良品のお菓子100Aの周方向の向きと一致する場合には、当該あるお菓子領域23から得られる複数の一様分割領域235は、複数の標準一様分割領域235をお菓子領域23Aの中心の周りに(90×N)°反時計回りに回転させたものと一致する。したがって、当該あるお菓子領域23から得られるお菓子特徴量は、お菓子領域23Aから得られるお菓子特徴量に一致する。つまり、当該あるお菓子領域23から得られるお菓子特徴量は、記憶部310内の標準特徴量と一致する。よって、当該あるお菓子領域23に映るお菓子100が、正しく製造されたものであると適切に判定することができる。   As described above, the circumferential direction of the non-defective candy 100 reflected in the certain confectionery area 23 indicates that the non-defective confectionery 100A reflected in the confectionery area 23A from which the standard feature amount is acquired is around the center (90 × N) ° (N is an integer greater than or equal to 0) When the counterclockwise direction coincides with the circumferential direction of the non-defective candy 100A, a plurality of ones obtained from the certain candy area 23 The divided area 235 corresponds to a plurality of standard uniform divided areas 235 rotated around the center of the candy area 23A by (90 × N) ° counterclockwise. Therefore, the confectionery feature amount obtained from the certain confectionery region 23 matches the confectionery feature amount obtained from the confectionery region 23A. That is, the confectionery feature amount obtained from the certain confectionery region 23 matches the standard feature amount in the storage unit 310. Therefore, it is possible to appropriately determine that the candy 100 reflected in the certain candy area 23 is correctly manufactured.

一方で、あるお菓子領域23に映る良品のお菓子100の周方向の向きが、お菓子領域23Aに映る良品のお菓子100Aをその中心の周りに(90×N)°反時計周りに回転させた際の当該良品のお菓子100Aの周方向の向きと一致しない場合には、当該あるお菓子領域23から得られる複数の一様分割領域235は、複数の標準一様分割領域235をお菓子領域23Aの中心の周りにどのような回転角度で回転させたとしても、当該複数の標準一様分割領域235と一致しないことがある。言い換えれば、あるお菓子領域23に映る良品のお菓子100の周方向の向きが、お菓子領域23Aに映る良品のお菓子100Aをその中心の周りにγ°(γ≠90×N、つまりγは“90”の倍数以外の値)反時計周りに回転させた際の当該良品のお菓子100Aの周方向の向きと一致する場合には、当該あるお菓子領域23から得られる複数の一様分割領域235は、複数の標準一様分割領域235をお菓子領域23Aの中心の周りにどのような回転角度で回転させたとしても、当該複数の標準一様分割領域235と一致しないことがある。したがって、当該あるお菓子領域23から得られる複数の一様分割領域235の大きさ情報及び距離情報は、複数の標準一様分割領域235の大きさ情報及び距離情報と一致しないことがある。よって、当該あるお菓子領域23から得られるお菓子特徴量は、お菓子領域23Aから得られるお菓子特徴量に一致しないことがある。つまり、当該あるお菓子領域23から得られるお菓子特徴量は、記憶部310内の標準特徴量に一致しないことがある。その結果、当該あるお菓子領域23に映るお菓子100が正しく製造されたものであると適切に判定されないことがある。特に、あるお菓子領域23に映る良品のお菓子100の周方向の向きが、お菓子領域23Aに映る良品のお菓子100Aをその中心の周りに(90×N+45)°反時計周りに回転させた際の当該良品のお菓子100Aの周方向の向きと一致する場合には、当該あるお菓子領域23から得られるお菓子特徴量が、標準特徴量と大きく異なることがある。そのため、この場合には、当該あるお菓子領域23に映るお菓子100が正しく製造されたものであると適切に判定されない可能性が高い。   On the other hand, the circumferential direction of a good confectionery 100 reflected in a certain confectionery area 23 rotates the good confectionery 100A reflected in the confectionery area 23A around its center (90 × N) ° counterclockwise. In the case where the orientation of the good confectionery 100A does not coincide with the circumferential direction, the plurality of uniform divided regions 235 obtained from the certain confectionery region 23 includes the plurality of standard uniform divided regions 235. In any rotation angle around the center of the confectionery region 23A, the plurality of standard uniform division regions 235 may not coincide. In other words, the circumferential direction of a good confectionery 100 reflected in a certain confectionery area 23 is such that the good confectionery 100A reflected in the confectionery area 23A is γ ° (γ ≠ 90 × N, that is, γ Is a value other than a multiple of “90”) When the counterclockwise direction coincides with the circumferential direction of the non-defective candy 100A, a plurality of uniforms obtained from the confectionery region 23 are obtained. The divided area 235 may not coincide with the plurality of standard uniform divided areas 235 no matter what rotation angle the plurality of standard uniform divided areas 235 are rotated around the center of the candy area 23A. . Therefore, the size information and distance information of the plurality of uniform division regions 235 obtained from the certain confectionery region 23 may not match the size information and distance information of the plurality of standard uniform division regions 235. Therefore, the confectionery feature amount obtained from the certain confectionery region 23 may not match the confectionery feature amount obtained from the confectionery region 23A. That is, the confectionery feature amount obtained from the certain confectionery region 23 may not match the standard feature amount in the storage unit 310. As a result, it may not be properly determined that the candy 100 reflected in the confectionery area 23 is correctly manufactured. In particular, the circumferential direction of a good confectionery 100 reflected in a certain confectionery area 23 causes the good confectionery 100A reflected in the confectionery area 23A to rotate about (90 × N + 45) ° counterclockwise around its center. When the quality of the non-defective confectionery 100A coincides with the direction of the circumferential direction, the confectionery feature amount obtained from the certain confectionery region 23 may be significantly different from the standard feature amount. Therefore, in this case, there is a high possibility that the confectionery 100 reflected in the certain confectionery area 23 is not properly determined as being correctly manufactured.

なお、あるお菓子領域23に映る良品のお菓子100の周方向の向きが、お菓子領域23Aに映る良品のお菓子100Aをその中心の周りに(90×N)°反時計周りに回転させた際の当該良品のお菓子100Aの周方向の向きと一致しない場合に、当該あるお菓子領域23から得られるお菓子特徴量が、お菓子領域23Aから得られるお菓子特徴量に対してどの程度ずれるかについては、お菓子領域23に対する領域分割においてどれだけ細かくお菓子領域23が分割されるかに依存する。領域分割においてお菓子領域23が細かく分割される場合には、当該あるお菓子領域23から得られるお菓子特徴量は、お菓子領域23Aから得られるお菓子特徴量に対して大きくずれることになる。   Note that the circumferential direction of a good confectionery 100 reflected in a certain confectionery area 23 rotates the good confectionery 100A reflected in the confectionery area 23A around its center (90 × N) ° counterclockwise. When the confectionery feature amount obtained from the certain confectionery region 23A does not match the circumferential direction of the good confectionery 100A, the confectionery feature amount obtained from the confectionery region 23A The degree of deviation depends on how finely the candy area 23 is divided in the area division for the candy area 23. When the confectionery area 23 is finely divided in the area division, the confectionery characteristic amount obtained from the certain confectionery area 23 is greatly deviated from the confectionery characteristic amount obtained from the confectionery area 23A. .

このように、あるお菓子領域23に映る良品のお菓子100の周方向の向きが、標準特徴量が取得されたお菓子領域23Aに映る良品のお菓子100Aをその中心の周りに(90×N)°反時計周りに回転させた際の当該良品のお菓子100Aの周方向の向きと一致しない場合には、当該あるお菓子領域23から得られるお菓子特徴量が標準特徴量と異なる可能性がある。そのため、当該あるお菓子領域23に映るお菓子100が良品であると適切に判定されないことがある。したがって、お菓子判定処理の際には、良品のお菓子100が映るお菓子領域23から取得された1種類の標準特徴量だけではなく、当該お菓子領域23に映る良品のお菓子100をその中心の周りに(90×N)°反時計周りに回転させた際の当該良品のお菓子100の周方向の向きと一致しない周方向の向きを有する良品のお菓子100が映るお菓子領域23から取得された標準特徴量も使用されることが望ましい。   As described above, the circumferential direction of the non-defective candy 100 reflected in the certain confectionery area 23 indicates that the non-defective confectionery 100A reflected in the confectionery area 23A from which the standard feature amount is acquired is around the center (90 × N) ° When the counterclockwise rotation of the non-defective candy 100A does not coincide with the circumferential direction of the non-defective candy 100A, the candy feature value obtained from the certain candy region 23 may be different from the standard feature value. There is sex. For this reason, the confectionery 100 reflected in the certain confectionery area 23 may not be properly determined as a non-defective product. Therefore, in the candy determination process, not only the one type of standard feature amount acquired from the confectionery area 23 in which the good confectionery 100 is reflected, but also the good confectionery 100 reflected in the confectionery area 23 A confectionery region 23 in which a good confectionery 100 having a circumferential direction that does not coincide with the circumferential direction of the good confectionery 100 when rotated counterclockwise by (90 × N) ° around the center It is also desirable to use standard feature quantities obtained from

また、図18を用いたこれまでの説明は、お菓子領域23の中心と、当該お菓子領域23に映る良品のお菓子100の中心とが一致することが前提の説明である。しかしながら、抽出部31でのお菓子領域23の抽出精度によっては、お菓子領域23の中心と、当該お菓子領域23に映る良品のお菓子100の中心とが一致しない可能性がある。図19は、お菓子領域23の中心23cと、当該お菓子領域23に映る良品のお菓子100の中心100cとが一致しない様子の一例を示す図である。   Moreover, the description so far using FIG. 18 is a premise that the center of the confectionery region 23 and the center of the non-defective confectionery 100 reflected in the confectionery region 23 coincide with each other. However, depending on the extraction accuracy of the confectionery region 23 in the extraction unit 31, the center of the confectionery region 23 may not match the center of the good confectionery 100 reflected in the confectionery region 23. FIG. 19 is a diagram illustrating an example of a state in which the center 23c of the candy area 23 and the center 100c of the non-defective candy 100 reflected in the candy area 23 do not coincide with each other.

抽出部31で抽出されたお菓子領域23の中心23cと、当該お菓子領域23に映る良品のお菓子100の中心100cとが一致しない場合には、あるお菓子領域23に映る良品のお菓子100の周方向の向きが、標準特徴量が取得されたお菓子領域23Aに映る良品のお菓子100Aの周方向の向きと異なれば、当該あるお菓子領域23に映る良品のお菓子100の周方向の向きがどのような向きであっても、当該あるお菓子領域23から得られる複数の一様分割領域235は、複数の標準一様分割領域235をお菓子領域23Aの中心の周りにどのような回転角度で回転させたとしても、当該複数の標準一様分割領域235と一致しないことがある。したがって、この場合には、当該あるお菓子領域23に映る良品のお菓子100の周方向の向きが、お菓子領域23Aに映る良品のお菓子100Aをその中心の周りに(90×N)°反時計回り回転させた際の当該良品のお菓子100Aの周方向の向きと一致する場合であっても、当該あるお菓子領域23から得られる複数の一様分割領域235が、複数の標準一様分割領域235をお菓子領域23Aの中心の周りに(90×N)°反時計回り回転させたものと一致しない可能性がある。したがって、当該あるお菓子領域23から得られる複数の一様分割領域235の大きさ情報及び距離情報は、複数の標準一様分割領域235の大きさ情報及び距離情報と一致しないことがある。よって、当該あるお菓子領域23から得られるお菓子特徴量は、お菓子領域23Aから得られるお菓子特徴量、つまり標準特徴量と一致しないことがある。   When the center 23c of the confectionery area 23 extracted by the extraction unit 31 and the center 100c of the good confectionery 100 reflected in the confectionery area 23 do not coincide with each other, the good confectionery reflected in the certain confectionery area 23 is displayed. If the direction of the circumferential direction of 100 is different from the direction of the circumferential direction of the good confectionery 100A reflected in the confectionery region 23A from which the standard feature amount is acquired, the circumference of the good confectionery 100 reflected in the certain confectionery region 23 Whatever direction the direction is, the plurality of uniform divided regions 235 obtained from the certain confectionery region 23 is the same as the plurality of standard uniform divided regions 235 around the center of the confectionery region 23A. Even if it is rotated at such a rotation angle, it may not coincide with the plurality of standard uniform divided regions 235. Therefore, in this case, the circumferential direction of the good confectionery 100 reflected in the certain confectionery area 23 is such that the good confectionery 100A reflected in the confectionery area 23A is (90 × N) ° around its center. Even when the counterclockwise rotation matches the circumferential direction of the non-defective candy 100A, the plurality of uniform divided regions 235 obtained from the certain confectionery region 23 include a plurality of standard ones. There is a possibility that the divided area 235 does not coincide with the one obtained by rotating (90 × N) ° counterclockwise around the center of the candy area 23A. Therefore, the size information and distance information of the plurality of uniform division regions 235 obtained from the certain confectionery region 23 may not match the size information and distance information of the plurality of standard uniform division regions 235. Therefore, the confectionery feature amount obtained from the certain confectionery region 23 may not match the confectionery feature amount obtained from the confectionery region 23A, that is, the standard feature amount.

このように、抽出部31で抽出されたお菓子領域23の中心23cと、当該お菓子領域23に映る良品のお菓子100の中心100cとが一致しない場合には、あるお菓子領域23に映る良品のお菓子100の周方向の向きが、標準特徴量が取得されたお菓子領域23Aに映る良品のお菓子100Aの周方向の向きと異なれば、当該あるお菓子領域23に映る良品のお菓子100の周方向の向きがどのような向きであっても、当該あるお菓子領域23から得られるお菓子特徴量が標準特徴量と異なる可能性がある。そのため、当該あるお菓子領域23に映るお菓子100が良品であると適切に判定されないことがある。したがって、お菓子判定処理の際には、良品のお菓子100が映るお菓子領域23から取得された1種類の標準特徴量だけではなく、当該お菓子領域23に映る良品のお菓子100の周方向の向きとは異なる周方向の向きを有する良品のお菓子100が映るお菓子領域23から取得された標準特徴量も使用されることが望ましい。   Thus, when the center 23c of the confectionery area 23 extracted by the extraction unit 31 and the center 100c of the non-defective confectionery 100 reflected in the confectionery area 23 do not coincide with each other, the confectionery area 23 is reflected. If the circumferential direction of the non-defective candy 100 is different from the circumferential direction of the non-defective confectionery 100A reflected in the confectionery area 23A from which the standard feature amount has been acquired, Whatever the direction of the confectionery 100 in the circumferential direction, the confectionery feature value obtained from the certain confectionery region 23 may be different from the standard feature value. For this reason, the confectionery 100 reflected in the certain confectionery area 23 may not be properly determined as a non-defective product. Therefore, in the candy determination process, not only one type of standard feature amount acquired from the confectionery area 23 in which the good confectionery 100 is reflected, but also the circumference of the good confectionery 100 in the confectionery area 23. It is desirable that the standard feature amount acquired from the confectionery region 23 in which the good confectionery 100 having a circumferential direction direction different from the direction direction is reflected is also used.

以上の点に鑑みて、本変形例では、お菓子判定処理の際に、一種類の標準特徴量を使用するのではなく、それらに映る良品のお菓子100の周方向の向きが互いに異なる複数のお菓子領域23に基づいてそれぞれ生成された複数種類の標準特徴量を使用する。判定部34は、処理対象画像11から得られたお菓子特徴量と、記憶部310内の複数種類の標準特徴量のそれぞれと比較し、その比較結果に基づいて、処理対象画像11に映るお菓子100が正しく製造されているか否かを判定する。   In view of the above points, in this modification, in the case of the candy determination process, a single type of standard feature amount is not used, but the circumferential directions of the non-defective candy 100 reflected in them are plural. A plurality of types of standard feature amounts respectively generated based on the confectionery region 23 are used. The determination unit 34 compares the confectionery feature amount obtained from the processing target image 11 with each of a plurality of types of standard feature amounts in the storage unit 310, and based on the comparison result, the image displayed in the processing target image 11. It is determined whether or not the confectionery 100 is correctly manufactured.

本変形例では、4種類の標準特徴量が使用される。4種類の標準特徴量は、それらに映る良品のお菓子100の周方向の向きが互いに異なる4つお菓子領域23R,23α,23β,23γに基づいてそれぞれ生成される。図20は、お菓子領域23R,23α,23β,23γの一例を示す図である。お菓子領域23αに映る良品のお菓子100の周方向の向きは、お菓子領域23Rに映る良品のお菓子100がその中心の周りに45°反時計周り回転した際の当該お菓子領域23Rに映る良品のお菓子100の周方向の向きと一致する。お菓子領域23βに映る良品のお菓子100の周方向の向きは、お菓子領域23Rに映る良品のお菓子100がその中心の周りに90°反時計周り回転した際の当該お菓子領域23Rに映る良品のお菓子100の周方向の向きと一致する。そして、お菓子領域23γに映る良品のお菓子100の周方向の向きは、お菓子領域23Rに映る良品のお菓子100がその中心の周りに135°反時計周り回転した際の当該お菓子領域23Rに映る良品のお菓子100の周方向の向きと一致する。   In this modification, four types of standard feature values are used. The four types of standard feature quantities are generated based on the four confectionery regions 23R, 23α, 23β, and 23γ, respectively, in which the circumferential direction of the good confectionery 100 reflected in them is different. FIG. 20 is a diagram illustrating an example of the candy regions 23R, 23α, 23β, and 23γ. The direction of the circumferential direction of the non-defective candy 100 reflected in the confectionery region 23α is the same as the confectionery region 23R when the non-defective confectionery 100 reflected in the confectionery region 23R rotates around the center by 45 ° counterclockwise. This coincides with the circumferential direction of the non-defective confectionery 100 that is reflected. The direction of the circumferential direction of the good confectionery 100 reflected in the confectionery region 23β is the same as that of the confectionery region 23R when the good confectionery 100 reflected in the confectionery region 23R rotates 90 ° counterclockwise around the center. This coincides with the circumferential direction of the non-defective confectionery 100 that is reflected. The circumferential direction of the non-defective candy 100 reflected in the confectionery area 23γ is the confectionery area when the non-defective confectionery 100 reflected in the confectionery area 23R rotates around the center by 135 ° counterclockwise. This coincides with the circumferential direction of the non-defective confectionery 100 reflected in 23R.

本変形例では、お菓子領域23α,23β,23γは、お菓子領域23Rに基づいて生成される。以後、お菓子領域23Rを「基準お菓子領域23R」と呼ぶ。お菓子領域23αは、基準お菓子領域23Rにおいて、それに映る良品のお菓子100の画像240Rが、基準お菓子領域23Rの中心23Rcの周りに45°反時計周り回転させられた画像である。お菓子領域23βは、基準お菓子領域23Rにおいて、それに映る良品のお菓子100の画像240Rが、基準お菓子領域23Rの中心23Rcの周りに90°反時計周り回転させられた画像である。そして、お菓子領域23γは、基準お菓子領域23Rにおいて、それに映る良品のお菓子100の画像240Rが、基準お菓子領域23Rの中心23Rcの周りに135°反時計周り回転させられた画像である。   In the present modification, the candy regions 23α, 23β, and 23γ are generated based on the candy region 23R. Hereinafter, the candy area 23R is referred to as a “reference candy area 23R”. The candy region 23α is an image obtained by rotating the image 240R of the non-defective candy 100 reflected in the reference candy region 23R by 45 ° counterclockwise around the center 23Rc of the reference candy region 23R. The candy region 23β is an image obtained by rotating the image 240R of the non-defective candy 100 reflected in the reference candy region 23R by 90 ° counterclockwise around the center 23Rc of the reference candy region 23R. The candy region 23γ is an image obtained by rotating the image 240R of the non-defective candy 100 reflected in the reference candy region 23R by 135 ° counterclockwise around the center 23Rc of the reference candy region 23R. .

判定装置3において複数種類の標準特徴量が生成される際には、製造ラインが実稼働していないときに、搬送コンベア101上に良品のお菓子100が載置される。画像処理システム1では、搬送コンベア101上に配置された良品のお菓子100が映る標準撮像画像11が生成される。画像処理システム1では、抽出部31が標準撮像画像11から、良品のお菓子100が映る基準お菓子領域23Rを抽出し、領域分割部32が当該基準お菓子領域23Rに対して領域分割を行う。そして、特徴量取得部33が領域分割部32で生成された複数の一様分割領域235に基づいて標準2次元評価値ヒストグラムを生成する。これにより、基準お菓子領域23Rに基づいて、1種類の標準特徴量、つまり1種類の標準2次元評価値ヒストグラムが生成される。   When a plurality of types of standard feature values are generated in the determination device 3, the good confectionery 100 is placed on the transport conveyor 101 when the production line is not actually operating. In the image processing system 1, a standard captured image 11 in which a non-defective confectionery 100 placed on the conveyor 101 is reflected is generated. In the image processing system 1, the extraction unit 31 extracts the reference candy region 23R in which the non-defective candy 100 is reflected from the standard captured image 11, and the region division unit 32 performs region division on the reference candy region 23R. . Then, the feature quantity acquisition unit 33 generates a standard two-dimensional evaluation value histogram based on the plurality of uniform divided regions 235 generated by the region dividing unit 32. Accordingly, one type of standard feature value, that is, one type of standard two-dimensional evaluation value histogram is generated based on the reference sweet region 23R.

また判定装置3では、抽出部31が、基準お菓子領域23Rに基づいてお菓子領域23α,23β,23γを生成する。抽出部31は、基準お菓子領域23Rにおいて、良品のお菓子100の画像240Rを当該基準お菓子領域23Rの中心23Rcの周りに45°反時計周りに回転させることによって得られる画像を、お菓子領域23αとする。また抽出部31は、基準お菓子領域23Rにおいて、良品のお菓子100の画像240Rを当該基準お菓子領域23Rの中心23Rcの周りに90°反時計周りに回転させることによって得られる画像を、お菓子領域23βとする。そして抽出部31は、基準お菓子領域23Rにおいて、良品のお菓子100の画像240Rを当該基準お菓子領域23Rの中心23Rcの周りに135°反時計周りに回転させることによって得られる画像を、お菓子領域23γとする。   Moreover, in the determination apparatus 3, the extraction part 31 produces | generates candy area | region 23 (alpha), 23 (beta), 23 (gamma) based on the reference | standard candy area | region 23R. In the reference candy region 23R, the extraction unit 31 rotates the image 240R of the non-defective candy 100 by 45 ° counterclockwise around the center 23Rc of the reference candy region 23R. Let it be area 23α. In addition, the extraction unit 31 obtains an image obtained by rotating the image 240R of the non-defective candy 100 by 90 ° counterclockwise around the center 23Rc of the reference candy region 23R in the reference candy region 23R. It is assumed that the confectionery region 23β. Then, the extraction unit 31 obtains an image obtained by rotating the image 240R of the non-defective candy 100 around the center 23Rc of the reference candy region 23R by 135 ° counterclockwise in the reference candy region 23R. It is assumed that the confectionery region 23γ.

抽出部31においてお菓子領域23α,23β,23γが生成されると、領域分割部32は、お菓子領域23α,23β,23γに対して領域分割を行う。特徴量取得部33は、領域分割部32においてお菓子領域23αに対する領域分割によって生成された複数の一様分割領域235に基づいて標準2次元評価値ヒストグラムを生成する。また特徴量取得部33は、領域分割部32においてお菓子領域23βに対する領域分割によって生成された複数の一様分割領域235に基づいて標準2次元評価値ヒストグラムを生成する。そして特徴量取得部33は、領域分割部32においてお菓子領域23γに対する領域分割によって生成された複数の一様分割領域235に基づいて標準2次元評価値ヒストグラムを生成する。これにより、お菓子領域23α,23β,23γに基づいて、3種類の標準特徴量、つまり3種類の標準2次元評価値ヒストグラムが生成される。   When the confectionery regions 23α, 23β, and 23γ are generated in the extraction unit 31, the region division unit 32 performs region division on the candy regions 23α, 23β, and 23γ. The feature amount acquisition unit 33 generates a standard two-dimensional evaluation value histogram based on the plurality of uniform division regions 235 generated by the region division of the candy region 23α in the region division unit 32. The feature amount acquisition unit 33 generates a standard two-dimensional evaluation value histogram based on the plurality of uniform division regions 235 generated by the region division unit 32 with respect to the confectionery region 23β. Then, the feature amount acquisition unit 33 generates a standard two-dimensional evaluation value histogram based on the plurality of uniform division regions 235 generated by the region division on the candy region 23γ in the region division unit 32. As a result, three types of standard feature values, that is, three types of standard two-dimensional evaluation value histograms, are generated based on the candy regions 23α, 23β, and 23γ.

以上のようにして生成された複数種類の標準特徴量(標準2次元評価値ヒストグラム)は記憶部310に記憶される。   A plurality of types of standard feature values (standard two-dimensional evaluation value histograms) generated as described above are stored in the storage unit 310.

製造ラインが実稼働中では、判定部34が、処理対象画像11から生成された2次元評価値ヒストグラムと、記憶部310内の複数種類の標準2次元評価値ヒストグラムのそれぞれとを比較する。具体的には、判定部34は、記憶部310内の複数種類の標準2次元評価値ヒストグラムのそれぞれについて、当該標準2次元評価値ヒストグラムと、処理対象画像11から生成された2次元評価値ヒストグラムとの間のBhattacharyya距離を求める。そして、判定部34は、得られた複数のBhattacharyya距離のうちの最小値を判定評価値とする。そして、判定部34は、判定評価値が、しきい値以下の場合には、処理対象画像11に映るお菓子100が良品であると判定し、当該しきい値よりも大きい場合には、処理対象画像11に映るお菓子100が不良品であると判定する。   When the production line is in actual operation, the determination unit 34 compares the two-dimensional evaluation value histogram generated from the processing target image 11 with each of a plurality of types of standard two-dimensional evaluation value histograms in the storage unit 310. Specifically, for each of a plurality of types of standard two-dimensional evaluation value histograms in the storage unit 310, the determination unit 34 generates the standard two-dimensional evaluation value histogram and the two-dimensional evaluation value histogram generated from the processing target image 11. Find the Bhattacharyya distance between. Then, the determination unit 34 sets a minimum value among the obtained Bhattacharyya distances as a determination evaluation value. Then, the determination unit 34 determines that the confectionery 100 shown in the processing target image 11 is a non-defective product when the determination evaluation value is equal to or less than the threshold value. It is determined that the candy 100 shown in the target image 11 is a defective product.

このように、本変形例に係るお菓子判定処理では、それらに映る良品のお菓子100の周方向の向きが互いに異なる複数の画像に基づいてそれぞれ生成された複数種類の標準特徴量が使用されることから、処理対象画像11に映るお菓子100の周方向の向きにかかわらず、当該お菓子100が正しく製造されているか否かを適切に判定することができる。よって、判定精度が向上する。   As described above, in the candy determination processing according to the present modification, a plurality of types of standard feature amounts respectively generated based on a plurality of images in which the circumferential directions of the non-defective candy 100 reflected in them are different from each other are used. Therefore, it is possible to appropriately determine whether or not the candy 100 is correctly manufactured regardless of the circumferential direction of the candy 100 reflected in the processing target image 11. Therefore, the determination accuracy is improved.

なお上記の例では、4種類の標準特徴量が使用されたが、標準特徴量の種類の数はこの限りではない。また、複数種類の標準特徴量が生成される複数の画像(複数のお菓子領域23)のそれぞれに映る良品のお菓子100の周方向の向きは上記の向きには限られない。   In the above example, four types of standard feature values are used, but the number of types of standard feature values is not limited to this. Moreover, the direction of the circumferential direction of the non-defective confectionery 100 reflected in each of the plurality of images (the plurality of confectionery areas 23) in which a plurality of types of standard feature values are generated is not limited to the above-described direction.

<複数種類の判定方法を使用してお菓子の真偽判定>
お菓子判定処理においては、上述した判定方法と、それ以外の判定方法とが併用されて、撮像画像11に映るお菓子100が正しく製造されているか否かが判定されても良い。撮像画像11に映るお菓子100が正しく製造されているか否かの別の判定方法としては、例えば、良品のお菓子の画像をテンプレート画像として使用するテンプレートマッチング法が考えられる。このテンプレートマッチング法では、撮像画像11においてテンプレート画像と類似する画像が存在するか否かを特定することによって、撮像画像11に映るお菓子100が正しく製造されているか否かが判定される。以下では、お菓子判定処理において、上述の判定方法と、テンプレートマッチング法とが併用される場合の判定装置3の動作について説明する。なお、テンプレートマッチング法以外の方法が用いられても良い。
<Authenticity determination of confectionery using multiple types of determination methods>
In the candy determination process, the above-described determination method and other determination methods may be used in combination to determine whether or not the candy 100 shown in the captured image 11 is correctly manufactured. As another determination method for determining whether or not the candy 100 shown in the captured image 11 is correctly manufactured, for example, a template matching method using an image of a good candy as a template image is conceivable. In this template matching method, it is determined whether or not the candy 100 shown in the captured image 11 is correctly manufactured by specifying whether or not there is an image similar to the template image in the captured image 11. Below, operation | movement of the determination apparatus 3 when the above-mentioned determination method and a template matching method are used together in a candy determination process is demonstrated. A method other than the template matching method may be used.

テンプレートマッチング法においても、上述した判定方法と同様に、撮像画像11に映るお菓子100が良品である確からしさを示す判定評価値(「出力値」とも呼ばれる)が生成される。テンプレートマッチング法では、お菓子100が映る撮像画像11において、テンプレート画像と最も類似する領域が特定され、当該領域とテンプレート画像との間の類似度を示す値が判定評価値として使用される。以後、上記のステップs2〜s5の実行で得られる判定評価値を「第1判定評価値EV1」と呼び、テンプレートマッチング方法で得られる判定評価値を「第2判定評価値EV2」と呼ぶ。ここでは、第2判定評価値EV2の値が小さいほど、処理対象画像11に映るお菓子100が良品である可能性が高いものする。   Also in the template matching method, as in the above-described determination method, a determination evaluation value (also referred to as “output value”) indicating the likelihood that the candy 100 shown in the captured image 11 is a non-defective product is generated. In the template matching method, a region most similar to the template image is specified in the captured image 11 in which the candy 100 is reflected, and a value indicating the degree of similarity between the region and the template image is used as a determination evaluation value. Hereinafter, the determination evaluation value obtained by executing the above steps s2 to s5 is referred to as “first determination evaluation value EV1”, and the determination evaluation value obtained by the template matching method is referred to as “second determination evaluation value EV2”. Here, the smaller the value of the second determination evaluation value EV2, the higher the possibility that the candy 100 shown in the processing target image 11 is a non-defective product.

判定装置3は、上述のステップs2〜s5を実行して処理対象画像11についての第1判定評価値EV1を求めるとともに、テンプレートマッチング法を用いて処理対象画像11についての第2判定評価値EV2を求める。そして、判定装置3では、判定部34が、以下の式(6)を用いて総合評価値EV0を求める。   The determination device 3 executes steps s2 to s5 described above to obtain the first determination evaluation value EV1 for the processing target image 11, and uses the template matching method to determine the second determination evaluation value EV2 for the processing target image 11. Ask. And in the determination apparatus 3, the determination part 34 calculates | requires the comprehensive evaluation value EV0 using the following formula | equation (6).

Figure 0006438774
Figure 0006438774

式(6)中のz1及びz2は定数である。式(6)に示されるように、総合評価値EV0は、第1判定評価値EV1及び第2判定評価値EV2の両方が小さいときに小さい値となる。   In formula (6), z1 and z2 are constants. As shown in Expression (6), the overall evaluation value EV0 is a small value when both the first determination evaluation value EV1 and the second determination evaluation value EV2 are small.

判定部34は、総合評価値EV0がしきい値th0以下であるときには、処理対象画像11に映るお菓子100が良品であると判定する。一方で、判定部34は、総合評価値EV0がしきい値th0よりも大きい場合には、処理対象画像11に映るお菓子100が不良品であると判定する。しきい値th0及び定数z1,z2は記憶部310に記憶されている。   When the overall evaluation value EV0 is equal to or less than the threshold th0, the determination unit 34 determines that the candy 100 shown in the processing target image 11 is a non-defective product. On the other hand, when the comprehensive evaluation value EV0 is larger than the threshold value th0, the determination unit 34 determines that the candy 100 shown in the processing target image 11 is a defective product. The threshold th0 and the constants z1 and z2 are stored in the storage unit 310.

ここで、良品のお菓子100が映る撮像画像11を「ポジティブ撮像画像11」と呼び、不良品のお菓子100(正しく製造されていないお菓子100)が映る撮像画像11「ネガティブ撮像画像11」と呼ぶ。しきい値th0及び定数z1,z2は、複数のポジティブ撮像画像11についての第1判定評価値EV1及び第2判定評価値EV2と、複数のネガティブ撮像画像11についての第1判定評価値EV1及び第2判定評価値EV2とに基づいて決定することができる。以下に、しきい値th0及び定数z1,z2の決定方法について説明する。   Here, the captured image 11 in which the non-defective candy 100 is reflected is referred to as a “positive captured image 11”, and the captured image 11 in which the defective confectionery 100 (the confectionery 100 that has not been manufactured correctly) is reflected “negative captured image 11”. Call it. The threshold th0 and the constants z1 and z2 are the first determination evaluation value EV1 and the second determination evaluation value EV2 for the plurality of positive captured images 11, and the first determination evaluation value EV1 and the first determination evaluation value EV1 for the plurality of negative captured images 11. 2 can be determined based on the evaluation value EV2. Hereinafter, a method for determining the threshold th0 and the constants z1 and z2 will be described.

図21は、複数のポジティブ撮像画像11及び複数のネガティブ撮像画像11のそれぞれについて求められた第1判定評価値EV1及び第2判定評価値EV2の関係の一例を示す図である。図21に示されるx軸は第2判定評価値EV2を示している。図21に示されるy軸は、x軸に示される第2判定評価値EV2が求められた撮像画像11の第1判定評価値EV1を示している。また図21中の黒三角は、ポジティブ撮像画像11についての第1判定評価値EV1及び第2判定評価値EV2を示し、図21中の白丸は、ネガティブ撮像画像11についての第1判定評価値EV1及び第2判定評価値EV2を示している。以後、撮像画像11について求められた第1判定評価値EV1及び第2判定評価値EV2のペアを「評価値ペア」と呼ぶことがある。図21には、複数の撮像画像11の評価値ペアの分布を示す評価値散布図500が示されている。   FIG. 21 is a diagram illustrating an example of the relationship between the first determination evaluation value EV1 and the second determination evaluation value EV2 obtained for each of the plurality of positive captured images 11 and the plurality of negative captured images 11. The x-axis shown in FIG. 21 indicates the second determination evaluation value EV2. The y-axis shown in FIG. 21 indicates the first determination evaluation value EV1 of the captured image 11 for which the second determination evaluation value EV2 shown on the x-axis is obtained. 21 indicates the first determination evaluation value EV1 and the second determination evaluation value EV2 for the positive captured image 11, and the white circle in FIG. 21 indicates the first determination evaluation value EV1 for the negative captured image 11. And the 2nd judgment evaluation value EV2 is shown. Hereinafter, the pair of the first determination evaluation value EV1 and the second determination evaluation value EV2 obtained for the captured image 11 may be referred to as an “evaluation value pair”. FIG. 21 shows an evaluation value scatter diagram 500 showing the distribution of the evaluation value pairs of the plurality of captured images 11.

本例では、第1判定評価値EV1が小さい場合には、処理対象画像11に映るお菓子100が良品である可能性が高い。そして、第2判定評価値EV2が小さい場合には、処理対象画像11に映るお菓子100が良品である可能性が高い。したがって、図21に示される評価値散布図500では、ポジティブ撮像画像11の評価値ペアを示す黒三角は、第1判定評価値EV1及び第2判定評価値EV2がともに小さい領域、つまり左下隅に集中する。   In this example, when the first determination evaluation value EV1 is small, there is a high possibility that the candy 100 shown in the processing target image 11 is a non-defective product. And when 2nd determination evaluation value EV2 is small, possibility that the candy 100 reflected in the process target image 11 is a non-defective product is high. Therefore, in the evaluation value scatter diagram 500 shown in FIG. 21, the black triangle indicating the evaluation value pair of the positive captured image 11 is in a region where both the first determination evaluation value EV1 and the second determination evaluation value EV2 are small, that is, in the lower left corner. concentrate.

上記の例のように、第1判定評価値EV1がしきい値th1以下か否かを判定するだけでお菓子100の良否判定が行われる場合には、第1判定評価値EV1は小さくなるものの第2判定評価値EV2が大きくなるようなネガティブ撮像画像11については、それに映るお菓子100が良品であると誤って判定されてしまう。図21に示される評価値散布図500においては、しきい値th1を示す、x軸に沿った直線510の上及びそれよりも下側の白丸が示す評価値ペアが求められたネガティブ撮像画像11に映るお菓子100が良品であると誤って判定される。評価値散布図500において、x軸方向に沿った直線510では、ポジティブ撮像画像11の評価値ペア(黒三角)の分布と、ネガティブ撮像画像11の評価値ペア(白丸)の分布とを適切に分離することが難しい。   As in the above example, when the quality of the candy 100 is determined only by determining whether or not the first determination evaluation value EV1 is equal to or less than the threshold th1, the first determination evaluation value EV1 is small. For the negative captured image 11 in which the second determination evaluation value EV2 is large, it is erroneously determined that the candy 100 shown in the negative captured image 11 is a non-defective product. In the evaluation value scatter diagram 500 shown in FIG. 21, the negative captured image 11 in which an evaluation value pair indicated by white circles above and below the straight line 510 along the x-axis indicating the threshold th1 is obtained. Is mistakenly determined to be a non-defective product. In the evaluation value scatter diagram 500, in the straight line 510 along the x-axis direction, the distribution of the evaluation value pair (black triangle) of the positive captured image 11 and the distribution of the evaluation value pair (white circle) of the negative captured image 11 are appropriately set. Difficult to separate.

また、第2判定評価値EV2がしきい値th2以下か否かを判定するだけでお菓子100の良否判定が行われる場合には、第2判定評価値EV2は小さくなるものの第1判定評価値EV1が大きくなるようなネガティブ撮像画像11については、それに映るお菓子100が良品であると誤って判定されてしまう。図21に示される評価値散布図500においては、しきい値th2を示す、y軸に沿った直線520の上及びそれよりも左側の白丸が示す評価値ペアが求められたネガティブ撮像画像11に映るお菓子100が良品であると誤って判定される。評価値散布図500において、y軸方向に沿った直線520では、ポジティブ撮像画像11の評価値ペアの分布と、ネガティブ撮像画像11の評価値ペアの分布とを適切に分離することが難しい。   Moreover, when the quality determination of the confectionery 100 is performed only by determining whether the second determination evaluation value EV2 is equal to or less than the threshold value th2, the first determination evaluation value although the second determination evaluation value EV2 is small. About the negative picked-up image 11 in which EV1 becomes large, it will be erroneously determined that the candy 100 reflected in it is a non-defective product. In the evaluation value scatter diagram 500 shown in FIG. 21, the negative captured image 11 in which the evaluation value pairs indicated by the white circles on the straight line 520 along the y axis and on the left side of the straight line 520 along the y axis indicating the threshold value th2 are obtained. It is erroneously determined that the reflected candy 100 is a non-defective product. In the evaluation value scatter diagram 500, it is difficult to properly separate the distribution of evaluation value pairs of the positive captured image 11 and the distribution of evaluation value pairs of the negative captured image 11 along the straight line 520 along the y-axis direction.

本変形例では、製造ラインが実稼働していないときに、複数の良品のお菓子100及び複数の不良品のお菓子100が搬送コンベア101上に載置され、判定装置3では、複数のポジティブ撮像画像11及び複数のネガティブ撮像画像11のそれぞれについての評価値ペアが求められる。そして、判定装置3で求められた複数の評価値ペアが示される評価値散布図500において、ポジティブ撮像画像11の評価値ペアの分布とネガティブ撮像画像11の評価値ペアの分布とが分離される分離直線530(図21参照)を表す式が求められる。分離直線530は以下の式(7)で表すことができる。なお、式(7)中のA1,A2,Bは定数である。   In this modification, when the production line is not actually in operation, a plurality of non-defective candy 100 and a plurality of defective candy 100 are placed on the conveyor 101, and the determination device 3 uses a plurality of positives. An evaluation value pair for each of the captured image 11 and the plurality of negative captured images 11 is obtained. Then, in the evaluation value scatter diagram 500 showing a plurality of evaluation value pairs obtained by the determination device 3, the distribution of evaluation value pairs of the positive captured image 11 and the distribution of evaluation value pairs of the negative captured image 11 are separated. An expression representing the separation straight line 530 (see FIG. 21) is obtained. The separation straight line 530 can be expressed by the following formula (7). In the formula (7), A1, A2, and B are constants.

Figure 0006438774
Figure 0006438774

評価値散布図500において、分離直線530の上及びそれよりも下側の領域は、第1判定評価値EV1及び第2判定評価値EV2ともに小さい領域である。したがって、処理対象画像11について求めた評価値ペアが評価値散布図500に示された場合において、当該評価値ペアの位置が、分離直線530の上あるいはそれよりも左側に存在するときには、処理対象画像11に映るお菓子100が良品であると考えることができる。   In the evaluation value scatter diagram 500, the region above and below the separation line 530 is a region where both the first determination evaluation value EV1 and the second determination evaluation value EV2 are small. Therefore, when the evaluation value pair obtained for the processing target image 11 is shown in the evaluation value scatter diagram 500, when the position of the evaluation value pair is on the separation line 530 or on the left side thereof, the processing target It can be considered that the candy 100 shown in the image 11 is a non-defective product.

評価値散布図500において、分離直線530の上及びそれよりも下側の領域は、以下の式(8)で表される。   In the evaluation value scatter diagram 500, the region above and below the separation line 530 is expressed by the following equation (8).

Figure 0006438774
Figure 0006438774

式(8)は以下の式(9)に変形できる。   Equation (8) can be transformed into the following equation (9).

Figure 0006438774
Figure 0006438774

処理対象画像11について求められた第1判定評価値EV1及び第2判定評価値EV2が式(9)のx及びyにそれぞれ代入された場合に、式(9)が満足される場合には、処理対象画像11に映るお菓子100は良品であると考えることができる。   When Expression (9) is satisfied when the first determination evaluation value EV1 and the second determination evaluation value EV2 obtained for the processing target image 11 are respectively substituted into x and y of Expression (9), The confectionery 100 shown in the processing target image 11 can be considered as a non-defective product.

判定装置3の記憶部310には、式(7)中の定数A1,A2が、式(6)中の定数z1,z2としてそれぞれ記憶される。そして、記憶部310には、“A2×B”がしきい値th0として記憶される。   The storage unit 310 of the determination device 3 stores constants A1 and A2 in the equation (7) as constants z1 and z2 in the equation (6), respectively. Then, “A2 × B” is stored in the storage unit 310 as the threshold value th0.

判定部34は、処理対象画像11についての第1判定評価値EV1及び第2判定評価値EV2と、記憶部310内の定数z1,z2とを用いて、処理対象画像11についての総合評価値EV0を求める。そして、判定部34は、求めた総合評価値EV0が、記憶部310内のしきい値th0以下であれば、処理対象画像11に映るお菓子100は良品であると判定し、しきい値th0よりも大きければ、処理対象画像11に映るお菓子100は不良品であると判定する。これにより、お菓子100の良否判定をより正しく行うことができる。   The determination unit 34 uses the first determination evaluation value EV1 and the second determination evaluation value EV2 for the processing target image 11 and the constants z1 and z2 in the storage unit 310 to determine the overall evaluation value EV0 for the processing target image 11. Ask for. Then, if the obtained comprehensive evaluation value EV0 is equal to or less than the threshold value th0 in the storage unit 310, the determination unit 34 determines that the candy 100 shown in the processing target image 11 is a non-defective product, and the threshold value th0. If it is larger than this, it is determined that the candy 100 reflected in the processing target image 11 is a defective product. Thereby, the quality determination of the candy 100 can be performed more correctly.

なお、式(7)については、評価値散布図500を見た人が手計算で求めても良いし、コンピュータ装置が判定装置3で求められた第1判定評価値EV1及び第2判定評価値EV2に基づいてサポートベクターマシン等の機械学習機能を用いて求めても良い。後者の場合には、機械学習機能が実装された判定装置3が式(7)を求めても良い。   Note that the expression (7) may be obtained by hand calculation by a person looking at the evaluation value scatter diagram 500, or the first determination evaluation value EV1 and the second determination evaluation value obtained by the computer device using the determination device 3. You may obtain | require using machine learning functions, such as a support vector machine, based on EV2. In the latter case, the determination device 3 in which the machine learning function is implemented may obtain Equation (7).

このように、本変形例では、互いに異なる判定方式で求められた複数の判定評価値に基づいて処理対象画像11に映るお菓子100が正しく製造されているか否かが判定されるため、判定精度を向上することができる。   Thus, in this modification, it is determined whether or not the candy 100 shown in the processing target image 11 is correctly manufactured based on a plurality of determination evaluation values obtained by different determination methods. Can be improved.

<その他の変形例>
上記の例では、画像処理システム1は、お菓子を製造する製造ラインに導入されていたが、他の装置あるいは様々な場所に導入されても良い。
<Other variations>
In the above example, the image processing system 1 has been introduced into a production line for producing confectionery, but may be introduced into other devices or various places.

例えば、画像処理システム1は、表面に模様が付された貨幣が投入される自動販売機内に導入されても良い。この場合には、自動販売機内に投入される貨幣が撮像装置2で撮像される。自動販売機内では、例えば、貨幣がレール上を回転しながら移動する。撮像装置2は回転する貨幣を撮像する。抽出部31は、撮像画像11から、貨幣が映る貨幣領域を抽出する。領域分割部32は、抽出部31で抽出された貨幣領域に対して領域分割を行う。特徴量取得部33は、領域分割部32で生成された複数の分割領域に基づいて、撮像画像11に映る貨幣の特徴を示す特徴量を取得する。判定部34は、特徴量取得部33で求められた特徴量に基づいて、撮像画像11に映る貨幣が正しいものに相当するか否かを判定する。貨幣表面の模様は、お菓子表面の模様と同じように扱うことができることから、上記と同様にして、画像処理システム1は、撮像画像11に映る貨幣が正しいものに相当するか否かを判定することができる。これにより、自動販売機に投入された貨幣の真偽判定を行うことができる。   For example, the image processing system 1 may be introduced into a vending machine into which money with a pattern on the surface is inserted. In this case, the money put into the vending machine is imaged by the imaging device 2. In the vending machine, for example, money moves while rotating on a rail. The imaging device 2 images the rotating money. The extraction unit 31 extracts a money area in which money is shown from the captured image 11. The area dividing unit 32 divides the money area extracted by the extracting unit 31. The feature amount acquisition unit 33 acquires a feature amount indicating the feature of money shown in the captured image 11 based on the plurality of divided regions generated by the region dividing unit 32. The determination unit 34 determines whether the money shown in the captured image 11 corresponds to a correct one based on the feature amount obtained by the feature amount acquisition unit 33. Since the pattern on the surface of the money can be handled in the same manner as the pattern on the surface of the candy, the image processing system 1 determines whether the money shown in the captured image 11 corresponds to the correct one in the same manner as described above. can do. Thereby, the authenticity of the money thrown into the vending machine can be determined.

また、画像処理システム1は、工場内で製品を組み立てる製造ラインに導入されても良い。より具体的には、画像処理システム1は、例えば、複数の部品を基板に実装する製造ラインに導入されても良い。この場合には、複数の部品が実装された基板が撮像装置2で撮像される。抽出部31は、撮像画像11から、複数の部品が実装された基板が映る基板領域を抽出する。領域分割部32は、抽出部31で抽出された基板領域に対して領域分割を行う。特徴量取得部33は、領域分割部32で生成された複数の分割領域に基づいて、撮像画像11に映る基板の特徴を示す特徴量を取得する。判定部34は、特徴量取得部33で取得された特徴量に基づいて、撮像画像11に映る、複数の部品が実装された基板が、複数の部品が正しく実装された基板に相当するか否か、つまり、基板に対して複数の部品が正しく実装されているか否かを判定する。基板上での複数の部品は、お菓子表面の模様と同じように扱うことができることから、上記と同様にして、画像処理システム1は、基板に対して複数の部品が正しく実装されているか否かを判定することができる。これにより、部品の実装間違え及び部品の実装もれ等を検出することができる。   The image processing system 1 may be introduced into a production line for assembling products in a factory. More specifically, the image processing system 1 may be introduced into a production line for mounting a plurality of components on a substrate, for example. In this case, the imaging device 2 captures an image of a substrate on which a plurality of components are mounted. The extraction unit 31 extracts a board area on which a board on which a plurality of components are mounted is shown from the captured image 11. The area dividing unit 32 performs area division on the substrate area extracted by the extracting unit 31. The feature amount acquisition unit 33 acquires a feature amount indicating the feature of the board shown in the captured image 11 based on the plurality of divided regions generated by the region dividing unit 32. Based on the feature amount acquired by the feature amount acquisition unit 33, the determination unit 34 determines whether or not the board on which the plurality of components mounted in the captured image 11 corresponds to the board on which the plurality of components are correctly mounted. That is, it is determined whether or not a plurality of components are correctly mounted on the board. Since a plurality of parts on the substrate can be handled in the same manner as the pattern on the candy surface, in the same manner as described above, the image processing system 1 determines whether or not the plurality of components are correctly mounted on the substrate. Can be determined. As a result, it is possible to detect component mounting mistakes, component mounting leakage, and the like.

また、画像処理システム1は、回転寿司店に導入されても良い。回転寿司店では、寿司等の商品の値段として、当該商品がのせられた皿の模様に応じた値段が設定されていることがある。そして、回転寿司店では、客が手に取った各皿の模様に応じた値段の合計が、飲食代として計算されることがある。このような回転寿司店に導入される画像処理システム1は、画像処理によって、客が手に取った皿の模様を特定する。   Further, the image processing system 1 may be introduced into a rotating sushi restaurant. In a conveyor belt sushi restaurant, the price of a product such as sushi may be set according to the pattern of the plate on which the product is placed. And in a conveyor belt sushi restaurant, the sum total of the price according to the pattern of each dish which the customer took in hand may be calculated as food and drink charges. The image processing system 1 introduced into such a rotary sushi restaurant specifies the pattern of the dish taken by the customer by image processing.

具体的には、寿司等をのせた複数の皿が搭載された回転レーンから客が皿を手に取ったとき、当該皿が撮像装置2で撮像される。抽出部31は、撮像画像11から、皿が映る皿領域を抽出する。領域分割部32は、抽出部31で抽出された皿領域に対して領域分割を行う。   Specifically, when a customer picks up a plate from a rotating lane on which a plurality of plates with sushi or the like are mounted, the plate is imaged by the imaging device 2. The extraction unit 31 extracts a dish area in which the dish appears from the captured image 11. The area dividing unit 32 performs area division on the dish area extracted by the extracting unit 31.

ここで、皿の周縁部に模様が付されており、寿司等の商品が皿の中央部(模様が無い部分)にのせられるものとする。この場合には、抽出部31で抽出された皿領域の中央部には、商品が映っており、当該中央部は皿の特徴を示すものではない。したがって、領域分割部32は、抽出部31で抽出された皿領域のうち、中央部を除く部分に対して領域分割を行う。   Here, a pattern is given to the peripheral part of the plate, and a product such as sushi is placed on the central part (the part without the pattern) of the plate. In this case, merchandise is shown in the central part of the dish area extracted by the extracting unit 31, and the central part does not indicate the characteristics of the dish. Therefore, the region dividing unit 32 performs region division on the portion of the dish region extracted by the extracting unit 31 excluding the central portion.

特徴量取得部33は、領域分割部32で生成された複数の分割領域に基づいて、撮像画像11に映る皿の特徴を示す特徴量を取得する。判定部34は、特徴量取得部33で求められた特徴量に基づいて、撮像画像11に映る皿が、所定の模様を有する皿に相当するか否かを判定する。つまり、判定部34は、特徴量に基づいて、撮像画像11に映る皿の模様が、所定の模様に一致するか否かを判定する。皿表面の模様は、お菓子表面の模様と同じように扱うことができることから、上記と同様にして、画像処理システム1は、撮像画像11に映る皿が、所定の模様を有する皿に相当するか否かを判定することができる。判定部34は、回転寿司店で使用される複数種類の皿にそれぞれ付された複数種類の模様のそれぞれについて、当該模様と、撮像画像11に映る皿の模様と一致するか否かを判定する。これにより、撮像画像11に映る皿の模様が特定される。したがって、撮像画像11に映る皿の模様に応じた値段を自動的に特定することができる。よって、客が手に取った各皿の模様に応じた値段の合計、つまり飲食代を自動計算することができる。   The feature amount acquisition unit 33 acquires a feature amount indicating the feature of the dish shown in the captured image 11 based on the plurality of divided regions generated by the region dividing unit 32. The determination unit 34 determines whether the dish shown in the captured image 11 corresponds to a dish having a predetermined pattern, based on the feature amount obtained by the feature amount acquisition unit 33. That is, the determination unit 34 determines whether the pattern of the dish shown in the captured image 11 matches a predetermined pattern based on the feature amount. Since the pattern on the surface of the dish can be handled in the same manner as the pattern on the surface of the candy, in the same manner as described above, in the image processing system 1, the dish reflected in the captured image 11 corresponds to a dish having a predetermined pattern. It can be determined whether or not. The determination unit 34 determines, for each of the plurality of types of patterns attached to the plurality of types of dishes used in the sushi restaurant, whether or not the pattern matches the pattern of the dishes shown in the captured image 11. . Thereby, the pattern of the dish reflected in the captured image 11 is specified. Therefore, the price corresponding to the pattern of the dish shown in the captured image 11 can be automatically specified. Therefore, it is possible to automatically calculate the total price according to the pattern of each dish taken by the customer, that is, the food and beverage charges.

また、画像処理システム1は、物流センターに導入されても良い。物流センターでは、ダンボール等の荷物に対して、郵送先等が記載されたシールが貼られることがある。画像処理システム1は、荷物に貼られたシールが正しいシールに相当するか否か、つまり荷物に正しいシールが貼られているか否かを判定する。この場合には、荷物に貼られたシールが撮像装置2で撮像される。抽出部31は、撮像画像11から、シールが映るシール領域を抽出する。領域分割部32は、抽出部31で抽出されたシール領域に対して領域分割を行う。特徴量取得部33は、領域分割部32で生成された複数の分割領域に基づいて、撮像画像11に映る基板の特徴を示す特徴量を取得する。判定部34は、特徴量取得部33で求められた特徴量に基づいて、撮像画像11に映るシールが、正しいシールに相当するか否かを判定する。シール表面の文字等は、お菓子表面の模様と同じように扱うことができることから、上記と同様にして、画像処理システム1は、荷物に正しいシールが貼られているか否かを判定することができる。これにより、シールの貼り間違え等を検出することができる。   Further, the image processing system 1 may be installed in a distribution center. In a distribution center, a sticker with a mailing address or the like may be affixed to a package such as cardboard. The image processing system 1 determines whether or not the seal attached to the package corresponds to the correct seal, that is, whether or not the correct seal is applied to the package. In this case, the sticker attached to the luggage is imaged by the imaging device 2. The extraction unit 31 extracts a seal area where a seal appears from the captured image 11. The area dividing unit 32 performs area division on the seal area extracted by the extracting unit 31. The feature amount acquisition unit 33 acquires a feature amount indicating the feature of the board shown in the captured image 11 based on the plurality of divided regions generated by the region dividing unit 32. The determination unit 34 determines whether or not the sticker shown in the captured image 11 is a correct sticker based on the feature amount obtained by the feature amount acquisition unit 33. Since the characters on the seal surface can be handled in the same manner as the pattern on the candy surface, the image processing system 1 can determine whether the correct seal is affixed to the package in the same manner as described above. it can. Thereby, it is possible to detect a mistake in sticking the seal.

以上のように、画像処理システム1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この発明がそれに限定されるものではない。また、上述した各種変形例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。   As described above, the image processing system 1 has been described in detail. However, the above description is illustrative in all aspects, and the present invention is not limited thereto. The various modifications described above can be applied in combination as long as they do not contradict each other. And it is understood that the countless modification which is not illustrated can be assumed without deviating from the scope of the present invention.

1 画像処理システム
3 判定装置
11 撮像画像
31 抽出部
32 領域分割部
33 特徴量取得部
34 判定部
100 お菓子
311 制御プログラム
DESCRIPTION OF SYMBOLS 1 Image processing system 3 Judgment apparatus 11 Captured image 31 Extraction part 32 Area division part 33 Feature-value acquisition part 34 Judgment part 100 Sweets 311 Control program

Claims (10)

処理対象画像に映る対象物が比較対象に相当するか否かを判定する判定装置であって、
対象物が映る処理対象画像から、前記対象物が映る対象物領域を抽出する抽出部と、
前記対象物領域に対して領域分割を行う領域分割部と、
前記領域分割部で生成された複数の分割領域に基づいて、前記対象物の特徴を示す特徴量を取得する特徴量取得部と、
前記特徴量に基づいて、前記対象物が比較対象に相当するか否かを判定する判定部と
を備え、
前記領域分割部は、
前記対象物領域全体での輝度ヒストグラムのエントロピーに基づいて、前記領域分割で使用するしきい値を決定し、
前記領域分割において、前記対象物領域の分割領域での輝度ヒストグラムのエントロピーが前記しきい値以上あるいは前記しきい値よりも大きい場合に当該分割領域を複数の分割領域にさらに分割する処理を繰り返し行う、判定装置。
A determination device that determines whether or not an object shown in a processing target image corresponds to a comparison target,
An extraction unit for extracting a target object region in which the target object is reflected from a processing target image in which the target object is reflected;
A region dividing unit for performing region division on the object region;
Based on a plurality of divided regions generated by the region dividing unit, a feature amount acquiring unit that acquires a feature amount indicating the feature of the object;
A determination unit that determines whether or not the object corresponds to a comparison object based on the feature amount;
The area dividing unit includes:
Based on the entropy of the luminance histogram over the entire object area, determine a threshold value used in the area division;
In the area division, when the entropy of the luminance histogram in the divided area of the object area is greater than or equal to the threshold value or larger than the threshold value, a process of further dividing the divided area into a plurality of divided areas is repeatedly performed. , Determination device.
請求項1に記載の判定装置であって、
前記特徴量取得部は、前記領域分割部で生成された複数の分割領域のそれぞれについての当該分割領域の大きさを示す情報に基づいて前記特徴量を取得する、判定装置。
The determination device according to claim 1,
The determination device, wherein the feature amount acquisition unit acquires the feature amount based on information indicating the size of each of the plurality of divided regions generated by the region dividing unit.
請求項1に記載の判定装置であって、
前記特徴量取得部は、前記領域分割部で生成された複数の分割領域のそれぞれについての、前記対象物領域の中心から当該分割領域までの距離を示す情報に基づいて前記特徴量を取得する、判定装置。
The determination device according to claim 1,
The feature amount acquisition unit acquires the feature amount based on information indicating a distance from the center of the object region to the divided region for each of the plurality of divided regions generated by the region dividing unit. Judgment device.
請求項2及び請求項3のいずれか一つに記載の判定装置であって、
前記特徴量取得部は、前記情報の1次元ヒストグラムを前記特徴量とする、判定装置。
The determination device according to any one of claims 2 and 3,
The determination unit, wherein the feature amount acquisition unit uses a one-dimensional histogram of the information as the feature amount.
請求項1に記載の判定装置であって、
前記特徴量取得部は、前記領域分割部で生成された複数の分割領域のそれぞれについての当該分割領域の大きさを示す第1情報と、当該複数の分割領域のそれぞれについての、前記対象物領域の中心から当該分割領域までの距離を示す第2情報とに基づいて、前記特徴量を取得する、判定装置。
The determination device according to claim 1,
The feature amount acquisition unit includes first information indicating a size of the divided region for each of the plurality of divided regions generated by the region dividing unit, and the object region for each of the plurality of divided regions. A determination apparatus that acquires the feature amount based on second information indicating a distance from the center of the region to the divided region.
請求項5に記載の判定装置であって、
前記特徴量取得部は、前記第1情報及び前記第2情報の2次元ヒストグラムを前記特徴量とする、判定装置。
The determination device according to claim 5,
The determination unit, wherein the feature amount acquisition unit uses a two-dimensional histogram of the first information and the second information as the feature amount.
請求項1乃至請求項6のいずれか一つに記載の判定装置であって、
前記判定部は、前記比較対象の特徴を示す標準特徴量と、前記特徴量とを比較し、その比較結果に基づいて、前記対象物が前記比較対象に相当するか否かを判定する、判定装置。
A determination apparatus according to any one of claims 1 to 6,
The determination unit compares a standard feature amount indicating a feature of the comparison target with the feature amount, and determines whether the target object corresponds to the comparison target based on the comparison result apparatus.
請求項7に記載の判定装置であって、
前記処理対象画像に映る前記対象物の周方向の向きは一定せず、
前記判定部は、前記比較対象の特徴を示す複数種類の標準特徴量のそれぞれと、前記特徴量とを比較し、その比較結果に基づいて、前記対象物が前記比較対象と一致するか否かを判定し、
前記複数種類の標準特徴量は、それぞれにおいて前記比較対象が映る複数の画像に基づいてそれぞれ生成され、
前記複数の画像の間では、当該画像に映る前記比較対象の周方向の向きが異なる、判定装置。
The determination device according to claim 7, wherein
The circumferential direction of the object shown in the processing target image is not constant,
The determination unit compares each of a plurality of types of standard feature amounts indicating features of the comparison target with the feature amounts, and based on the comparison result, whether or not the target matches the comparison target. Determine
The plurality of types of standard feature amounts are respectively generated based on a plurality of images in which the comparison target is reflected,
The determination apparatus in which the direction of the circumferential direction of the comparison target reflected in the images is different between the plurality of images.
コンピュータ装置に、処理対象画像に映る対象物が比較対象に相当するか否かを判定させるための制御プログラムであって、
前記コンピュータ装置に、
(a)対象物が映る処理対象画像から、前記対象物が映る対象物領域を抽出する工程と、
(b)前記対象物領域に対して領域分割を行う工程と、
(c)前記工程(b)で生成された複数の分割領域に基づいて、前記対象物の特徴を示す特徴量を取得する工程と、
(d)前記特徴量に基づいて、前記対象物が比較対象に相当するか否かを判定する工程と
を実行させ、
前記工程(b)において、
前記対象物領域全体での輝度ヒストグラムのエントロピーに基づいて、前記領域分割で使用されるしきい値を決定させ、
前記対象物領域の分割領域での輝度ヒストグラムのエントロピーが前記しきい値以上あるいは前記しきい値よりも大きい場合に、当該分割領域を複数の分割領域にさらに分割する処理を繰り返し行わせるための制御プログラム。
A control program for causing a computer device to determine whether an object shown in a processing target image corresponds to a comparison target,
In the computer device,
(A) extracting a target object region in which the target object is shown from a processing target image in which the target object is shown;
(B) performing a region division on the object region;
(C) obtaining a feature amount indicating the feature of the object based on the plurality of divided regions generated in the step (b);
(D) executing a step of determining whether or not the object corresponds to a comparison object based on the feature amount;
In the step (b),
Based on the entropy of the luminance histogram over the entire object area, the threshold used in the area division is determined,
Control for repeatedly performing the process of further dividing the divided area into a plurality of divided areas when the entropy of the luminance histogram in the divided area of the object area is greater than or equal to the threshold value or larger than the threshold value program.
処理対象画像に映る対象物が比較対象に相当するか否かを判定する判定装置での判定方法であって、
(a)対象物が映る処理対象画像から、前記対象物が映る対象物領域を抽出する工程と、
(b)前記対象物領域に対して領域分割を行う工程と、
(c)前記工程(b)で生成された複数の分割領域に基づいて、前記対象物の特徴を示す特徴量を取得する工程と、
(d)前記特徴量に基づいて、前記対象物が比較対象に相当するか否かを判定する工程と
を備え、
前記工程(b)において、
前記対象物領域全体での輝度ヒストグラムのエントロピーに基づいて、前記領域分割で使用されるしきい値が決定され、
前記対象物領域の分割領域での輝度ヒストグラムのエントロピーが前記しきい値以上あるいは前記しきい値よりも大きい場合に、当該分割領域を複数の分割領域にさらに分割する処理が繰り返し行われる、判定方法。
A determination method in a determination device for determining whether or not an object shown in a processing target image corresponds to a comparison target,
(A) extracting a target object region in which the target object is shown from a processing target image in which the target object is shown;
(B) performing a region division on the object region;
(C) obtaining a feature amount indicating the feature of the object based on the plurality of divided regions generated in the step (b);
(D) determining whether the object corresponds to a comparison object based on the feature amount,
In the step (b),
Based on the entropy of the luminance histogram over the entire object area, a threshold value used in the area division is determined,
A determination method in which, when the entropy of the luminance histogram in the divided area of the object area is equal to or larger than the threshold value or larger than the threshold value, the process of further dividing the divided area into a plurality of divided areas is repeatedly performed .
JP2015007510A 2015-01-19 2015-01-19 Determination device, control program, and determination method Active JP6438774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015007510A JP6438774B2 (en) 2015-01-19 2015-01-19 Determination device, control program, and determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015007510A JP6438774B2 (en) 2015-01-19 2015-01-19 Determination device, control program, and determination method

Publications (2)

Publication Number Publication Date
JP2016133953A JP2016133953A (en) 2016-07-25
JP6438774B2 true JP6438774B2 (en) 2018-12-19

Family

ID=56426255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015007510A Active JP6438774B2 (en) 2015-01-19 2015-01-19 Determination device, control program, and determination method

Country Status (1)

Country Link
JP (1) JP6438774B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6874671B2 (en) * 2017-12-19 2021-05-19 オムロン株式会社 Authentication system and data processing method
JP6542442B2 (en) * 2018-07-19 2019-07-10 株式会社ユニバーサルエンターテインメント Game machine and game medium discrimination device
JP6542441B2 (en) * 2018-07-19 2019-07-10 株式会社ユニバーサルエンターテインメント Game machine and game medium discrimination device
JP6757378B2 (en) * 2018-08-28 2020-09-16 株式会社モルフォ Image identification device, image identification method and image identification program
JP7535484B2 (en) * 2021-09-01 2024-08-16 ダイハツ工業株式会社 Anomaly detection device and anomaly detection method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034755A (en) * 1999-07-21 2001-02-09 Ntt Data Corp Method and device for image processing
US7864365B2 (en) * 2006-06-15 2011-01-04 Sharp Laboratories Of America, Inc. Methods and systems for segmenting a digital image into regions
JP2012194919A (en) * 2011-03-17 2012-10-11 Ricoh Co Ltd Image processing device, image processing method, image processing system, and image processing program
CN103189897B (en) * 2011-11-02 2016-06-15 松下电器(美国)知识产权公司 Pattern recognition device, image-recognizing method and integrated circuit
JP6374542B2 (en) * 2017-02-03 2018-08-15 株式会社ユニバーサルエンターテインメント Gaming machine and game medium discrimination device

Also Published As

Publication number Publication date
JP2016133953A (en) 2016-07-25

Similar Documents

Publication Publication Date Title
JP6438774B2 (en) Determination device, control program, and determination method
JP6613030B2 (en) Determination apparatus, control program, and determination method
JP6533061B2 (en) Judgment apparatus, control program and judgment method
US10055670B2 (en) Image recognition device, image sensor, and image recognition method using feature
US20150317534A1 (en) System and method of pill identification
US20170330315A1 (en) Information processing apparatus, method for processing information, discriminator generating apparatus, method for generating discriminator, and program
CN106371148B (en) A kind of human body foreign body detection method and system based on millimeter-wave image
WO2018016214A1 (en) Image processing device, image processing method, and program
US20170124424A1 (en) Apparatus, method, and program for managing articles
US20120257833A1 (en) Image processing apparatus, image processing method, and computer readable medium
US20140355849A1 (en) System and method of using imprint analysis in pill identification
WO2018078613A1 (en) System and method for automatic inspection and classification of discrete items
US8396297B2 (en) Supervised edge detection using fractal signatures
JP2021069793A5 (en)
Abdellah et al. Defect detection and identification in textile fabric by SVM method
US9628659B2 (en) Method and apparatus for inspecting an object employing machine vision
Siswantoro et al. Automatic image segmentation using sobel operator and k-means clustering: A case study in volume measurement system for food products
Nair et al. Analysis and detection of infected fruit part using improved K-means clustering and segmentation techniques
JP6504682B2 (en) Part type automatic determination method, part type automatic determination system, image processing part data creation method, and image processing part data creation system
WO2016092783A1 (en) Information processing apparatus, method for processing information, discriminator generating apparatus, method for generating discriminator, and program
JP2006260310A (en) Article discrimination method, article discrimination device, and program
JP2011186595A (en) Information generation device, object detection device, information generation method, object detection method, and program
Annasaro et al. Color and shape feature extraction and matching in pill identification systems
US10853683B2 (en) Systems and methods to determine size and color of a fashion apparel
Sumalatha et al. A new approach for recognition of mosaic textures by LBP based on RGB model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R150 Certificate of patent or registration of utility model

Ref document number: 6438774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250