WO2019131945A1 - 食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法 - Google Patents

食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法 Download PDF

Info

Publication number
WO2019131945A1
WO2019131945A1 PCT/JP2018/048323 JP2018048323W WO2019131945A1 WO 2019131945 A1 WO2019131945 A1 WO 2019131945A1 JP 2018048323 W JP2018048323 W JP 2018048323W WO 2019131945 A1 WO2019131945 A1 WO 2019131945A1
Authority
WO
WIPO (PCT)
Prior art keywords
food
image
neural network
learning
reconstruction
Prior art date
Application number
PCT/JP2018/048323
Other languages
English (en)
French (fr)
Inventor
幸太郎 降旗
武 荻野
祐介 水谷
田村 崇
満久 太田
義充 今津
ティネオ アレハンドロ ハビエル ゴンザレス
勇太 吉田
洋平 菅原
Original Assignee
キューピー株式会社
株式会社ブレインパッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キューピー株式会社, 株式会社ブレインパッド filed Critical キューピー株式会社
Publication of WO2019131945A1 publication Critical patent/WO2019131945A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/89Investigating the presence of flaws or contamination in moving material, e.g. running paper or textiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to a food inspection apparatus, a food inspection method, and a learning method of a food reconstruction neural network of the food inspection apparatus.
  • Patent Document 1 proposes various techniques such as metal detection and X-ray inspection for a food inspection apparatus for detecting foreign matter mixed in an inspection object such as food.
  • Patent Document 1 one that detects a foreign object by performing image processing on a captured image.
  • Patent Document 1 spectral images of rotten samples and healthy samples of decaying substances such as food are acquired, and principal component analysis is performed using differences in absorption spectra of each sample. And a regression analysis etc. to make a calibration equation to determine whether it is rot or not, and apply the spectral image of an unknown sample of the same substance to the calibration to determine whether the unknown sample is rot or not It is described.
  • the present invention has been made in consideration of such circumstances, and an object thereof is a food inspection apparatus and a food inspection method capable of improving the robustness of a food inspection for confirming that there is no mixture of foreign substances. And providing a learning method of a food reconstruction neural network of the food inspection apparatus.
  • the present invention is grasped by the following composition.
  • a light irradiator that irradiates light to the inspection object with an inspection object that is a food that confirms that there is no foreign matter mixed, an imaging unit that picks up an image of the inspection object, and identification
  • the identification processing device includes a food reconstruction neural network in which only good items of food have been learned in advance, and using the food reconstruction neural network from an image obtained by the imaging unit Recomposing a food assumption image, calculating a difference between the image obtained by the imaging means and the food assumption image, and identifying an inspection object whose difference exceeds a preset threshold value as a foreign matter It is.
  • the present invention is characterized in that, in the configuration of the above (1), a convolutional neural network of reconstruction using a self-coder is used as the food reconstruction neural network.
  • the present invention is characterized in that in the configuration of the above (1), color reconstruction using only luminance is used as the food reconstruction neural network.
  • the present invention is a food inspection method for confirming that the food of the object to be inspected is not contaminated with foreign matter, by the food inspection device having any one of the configurations (1) to (3).
  • the present invention is a learning method of a food reconstruction neural network of a food inspection apparatus according to the above (1), wherein the imaging means of the food inspection apparatus confirms that no foreign matter is mixed.
  • a food hypothesis image generated by a convolutional neural network from a non-defective image in which a good item of the food is captured and a foreign object is not captured based on an original image obtained by imaging by the imaging unit of the food inspection apparatus The learning is performed so that the difference with the obtained image is minimized.
  • the present invention is a learning method according to the above (5), characterized in that the non-defective image is obtained by imaging only non-defective items of the food by the imaging means of the food inspection apparatus. It is.
  • the present invention is a learning method according to the above (5), characterized in that the non-defective image is obtained by performing a process of removing an image of a foreign object from the original image.
  • a food inspection apparatus a food inspection method, and a learning method of a food reconstruction neural network of the food inspection apparatus capable of improving the robustness of a food inspection for confirming that foreign matter is not mixed. be able to.
  • FIG. 7 is an explanatory view of an average luminance calculating step (S120) according to the first embodiment.
  • FIG. 7 is an explanatory diagram of a preprocessing step (S210) according to the first embodiment.
  • FIG. 6 is an explanatory diagram of a learning step (S220) of a model according to the first embodiment.
  • FIG. 14 is an explanatory diagram of a preprocessing step (S210) according to a second embodiment.
  • FIG. 14 is an explanatory diagram of a learning step (S220) of a model according to a second embodiment. It is explanatory drawing of each step (S310, S320, S330) of the detection step (S300) which concerns on Example 2.
  • FIG. 14 is an explanatory diagram of a preprocessing step (S210) according to a second embodiment.
  • FIG. 14 is an explanatory diagram of a learning step (S220) of a model according to a second embodiment.
  • FIG. 1 is a schematic view showing a food inspection apparatus according to an embodiment of the present invention.
  • the food inspection apparatus 1 shown in FIG. 1 includes a transport unit 2, a light irradiation unit 3, an imaging unit 4, and an identification processing unit 6.
  • the transport means 2 transports the inspection object A from the upstream process to the downstream process through the inspection process at the inspection site C, and is composed of a belt conveyor or the like.
  • the transport means 2 transports the inspection object A at a transport speed of about 2 m / min to about 20 m / min.
  • the inspection object A includes the non-defective item S of the food B and the foreign matter F.
  • the light irradiating means 3 irradiates light to the inspection object A present in the inspection place C.
  • the light irradiating means 3 may include the light compensator 32. Further, the light irradiation means 3 may include a deflection filter 33 attached to the inspection place C side.
  • the image pickup means 4 picks up an image of the inspection object A being transported at the inspection place C, and is constituted by a CCD camera, a hyperspectral camera or the like. Moreover, the imaging means 4 may be attached to the inspection place C side, and may include a deflection filter 41 having a phase different from the phase of the deflection filter 33.
  • the identification processing device 6 is for identifying the foreign matter F of the food B in the inspection object A.
  • the identification processing device 6 identifies the foreign matter F of the food B in the inspection object A from the image D1 captured by the imaging unit 4.
  • the identification processing device 6 identifies the foreign matter F in-line from the inspection object A being transported by the transport means 2 based on the image D1.
  • the identification processing device 6 learns in advance the process of identifying the foreign object F from the inspection object A by deep learning.
  • FIG. 2 is a schematic view showing the identification state of the inspection object.
  • foreign objects F1 and F2 are identified in-line from the inspection object A being transported by the transport means 2.
  • the foreign substance F2 is mixed with the portion of the good product S in the food B.
  • Example 1 Example 1 of the identification processing apparatus 6 according to the present embodiment will be described with reference to FIGS. 3 to 12.
  • 3 to 12 are diagrams showing the identification processing method of the first example of the identification processing apparatus 6 according to the present embodiment.
  • the present identification processing method comprises a model learning stage and a detection stage.
  • the model learning stage is a stage of performing learning of a neural network used in the detection stage.
  • learning of a neural network is performed to perform color reconstruction using only luminance.
  • the detection step is a step of identifying the foreign matter F of the food B in the inspection object A being transported by the transport means 2 using the neural network learned in the model learning stage.
  • FIG. 3 is a flowchart showing the procedure of the process of the model learning stage of the identification processing method of the first embodiment of the identification processing apparatus according to the present embodiment. As shown in FIG. 3, in the model learning stage, first, a data preparation stage (S100) is performed, and then a learning stage (S200) is performed.
  • S100 data preparation stage
  • S200 learning stage
  • the data preparation step (S100) will be described.
  • the data preparation step (S100) includes a learning data preparation step (S110) and an average luminance calculation step (S120).
  • each step (S110, S120) of the data preparation step (S100) will be described with reference to FIGS. 4 and 5, respectively.
  • FIG. 4 is an explanatory diagram of a preparation step (S110) of learning data.
  • the preparation step (S110) of learning data data used in the learning step (S200) according to the first embodiment is prepared.
  • a plurality of (Nall sheets) learning images (RGB images) are prepared.
  • the learning image (RGB image) is an image in which the non-defective item S of the food B is shown and the foreign matter F is not shown.
  • the size of the learning image (RGB image) is “P1 ⁇ P2” pixels (px).
  • the learning image (RGB image) may be an image in which only the non-defective item S of the food B is captured by the imaging unit 4.
  • the image D1 of the non-defective item S captured by the imaging unit 4 is a learning image (RGB image) of a plurality of sheets (Nall sheets).
  • the learning image (RGB image) may be the image D1 after the processing of removing the image of the foreign material F from the image D1 of the non-defective item S of the food B and the foreign material F captured by the imaging unit 4 Good.
  • the image D1 after the process of removing the image of the foreign material F from the image D1 captured by the imaging unit 4 becomes a plurality of (Nall) learning images (RGB images).
  • the process of removing the image of the foreign matter F may be a process of removing the image itself in which the foreign matter F appears, or the process of erasing the image area of the foreign matter F from the image in which the foreign matter F appears (for example, in white It may be a process of filling, etc.).
  • a data preparation step is performed using Nall learning images (RGB images).
  • Nall learning images RGB images
  • Nall X% learning images RGB images
  • Nall (100-X)% learning images RGB images
  • the N% number of X% learning images are learning images (RGB images) of the learning set (Train set).
  • the learning image (RGB image) of Nall sheets of (100 ⁇ X)% of the number is a learning image (RGB image) of the validation set.
  • a training set (Train set) is used to train a neural network.
  • Validation sets are used to verify the quality of learning of neural networks.
  • each learning image is decomposed into sub images (RGB images) of “P3 ⁇ P3” pixels (px). (S112, where “P1> P3, P2> P3”). Further, there is no overlap between a plurality of sub images (RGB images) decomposed from one learning image (RGB image). Note that step S112 (decomposition processing into sub images) may not be performed. When step S112 (decomposition processing into sub images) is not performed, the learning image (RGB image) of the learning set (Train set) and the learning image (RGB image) of the validation set (Validation set) are as they are in the subsequent processing. used.
  • step S112 decomposition process to sub image
  • FIG. 5 is an explanatory view of the calculation step (S120) of the average luminance according to the first embodiment.
  • the identification processing device 6 performs the calculation step (S120) of the average luminance on a calculation target of N train sub images (RGB images) of the learning set (Train set).
  • the identification processing device 6 extracts a luminance channel (luminance ch) from each of the N train sub images (RGB images) of the learning set (Train set) (S121).
  • the identification processing device 6 calculates the average luminance (Lavg) using the luminance channels (luminance ch) of the extracted Ntrain sub images (S122).
  • the calculation formula of this average luminance (Lavg) is represented by following Formula (1).
  • the average luminance (Lavg) calculated by the identification processing device 6 is used to normalize input data used in learning of the neural network in the learning step (S200).
  • the learning stage (S200) will be described.
  • the learning stage (S200) comprises a pre-processing stage (S210) and a model learning stage (S220).
  • S210 pre-processing stage
  • S220 model learning stage
  • each step (S210, S220) of the learning step (S200) will be described with reference to FIGS. 6 and 7, respectively.
  • FIG. 6 is an explanatory diagram of the preprocessing step (S210) according to the first embodiment.
  • a learning input image RGB image, “Pin1 ⁇ Pin2” pixel
  • step S112 decomposition processing to a sub image
  • step S112 decomposition processing into sub images
  • the pre-processing stage (S210) for the learning set (Train set) and the validation set (Validation set), for each learning input image (RGB image), “input (x) and correct color (y)” Generate a pair.
  • the identification processing device 6 performs color space conversion processing to convert the learning input image (RGB image, “Pin1 ⁇ Pin2” pixel) from RGB space to Lab space, and the L value (luminance) of L channel (Lch) And the a and b values (colors) of the ab channel (abch) (S211).
  • the identification processing device 6 normalizes the L value (brightness) of Lch (S212).
  • the calculation formula of this normalization is represented by following Formula (2).
  • the average luminance (Lavg) is a value calculated in the above-described calculation of the average luminance (S120). Equation (2) is an example of a method of normalization.
  • Xi, j is a value resulting from normalization of the L value (brightness) of the “i, j” -th pixel.
  • the L value (brightness) is normalized using the average brightness (Lavg) in step S212 described above, the L value (brightness) may be normalized instead of the normalization. Normalization of the L value (brightness) may be performed by setting the average brightness (Lavg) to 0 in the above equation (2) (that is, the numerator of the above equation (2) is set to the L value “Li, j”) . However, normalizing the L value (brightness) rather than normalization can improve the learning efficiency in the learning step of step S200 described later.
  • the identification processing device 6 categorizes the a values and b values (colors) of abch and normalizes them (S213).
  • the value of the abch categorization result is the correct color (y).
  • FIG. 10 is a graph showing an example of categorization (RGB color gamut) of ab space.
  • FIG. 11 is an explanatory view showing an example of categorization and normalization of ab values of pixels.
  • Vector (y) is a representation of categorization and normalization of pixel values (p).
  • the number of categories is Q (that is, k is an integer from 1 to Q in equation (3))
  • pixel values p: a
  • FIG. 7 is an explanatory diagram of a learning step (S220) of the model according to the first embodiment.
  • a pair of “input (x) and correct color (y)” in the learning set (Train set) and “input (x) and correct color (y) in the validation set (Validation set) The learning of the neural network “model Net (f ( ⁇ ))” is performed using “pairs”.
  • FIG. 12 is a conceptual diagram showing an example of the structure of the neural network “model Net (f ( ⁇ ))” according to the first embodiment.
  • the neural network “model Net (f ( ⁇ ))” shown in FIG. 12 is a convolutional neural network composed of, for example, eight layers.
  • the first layer is an input layer.
  • the second to fourth layers are convolutional layers.
  • the fifth to seventh layers are deconvoluted layers, and the eighth layer is an output layer.
  • the output size of the second layer is “P4 ⁇ P4 ⁇ 16”.
  • the output size of the third, fourth and fifth layers is “P5 ⁇ P5 ⁇ 16”.
  • the output size of the sixth layer is “P4 ⁇ P4 ⁇ 16”.
  • the output size of the seventh layer is “Pin1 ⁇ Pin2 ⁇ 16”.
  • the output size of the eighth layer is “Pin1 ⁇ Pin2 ⁇ nb”.
  • the magnitude relationship of Pin1, Pin2, P3, P4, and P5 is “Pin1 or Pin2 ⁇ Pin2 or Pin1> P4> P5”.
  • the model learning step (S220) will be described below with reference to FIG.
  • the identification processing device 6 uses a pair of “input (x) and correct color (y)” of the training set (Train set) to minimize the loss of “categorical cross-entropy” “neural network“ model Net ( The parameter ( ⁇ ) of f ( ⁇ )) is learned (S221, S222).
  • the input (x) is input to the neural network "model Net (f (.theta.))"
  • the equation for calculating loss (E (y, y ⁇ ) of “Categorical Cross-entropy” is expressed by the following equation (4), where Q is the number of categories in categorization of abch in step S 213 described above.
  • Yi, j, k” of color (y) is the value of the kth category of the “i, j” -th pixel (that is, yk according to equation (3)) “y” of the predicted color (y ⁇ ) ⁇ I, j, k “is the value of the k-th category of the" i, j "-th output value of the neural network” model Net (f ( ⁇ )) ".
  • Error back-propagation method and probabilistic as a method to learn parameters ( ⁇ ) of neural network “model Net (f ( ⁇ ))” which minimizes loss (E (y, y ⁇ ) of “Categorical Cross-entropy” Use Stochastic Gradient Descent (SGD).
  • the identification processing device 6 repeatedly learns the parameter ( ⁇ ) of the neural network “model Net (f ( ⁇ ))” by a certain number of iterations (epochs).
  • the identification processing device 6 uses the pair of “input (x) and correct color (y)” of the validation set (Validation set) to repeat the parameter ( ⁇ ) for each repetition of learning of the parameter ( ⁇ ). Verify.
  • the above-described steps S221 and S222 are performed using a pair of “input (x) and correct color (y)” of the validation set (Validation set) to “Categorical Cross-entropy”.
  • model Net (f ( ⁇ )) in which only the non-defective item S of the food B is learned is generated.
  • FIG. 8 is a flowchart showing the procedure of the detection step of the identification processing method of the first example of the identification processing apparatus according to this embodiment.
  • the detection step (S300) first, the pre-processing step (S310) is performed, then the prediction step (S320) is performed, and then the post-processing step (S330) is performed.
  • FIG. 9 is an explanatory view of each step (S310, S320, S330) of the detection step (S300) according to the first embodiment.
  • each step (S310, S320, S330) of the detection step (S300) will be described with reference to FIG.
  • the input image is an RGB image of the image D1 in which the inspection object A being transported is imaged by the imaging unit 4.
  • the size of the input image is “P1 ⁇ P2” pixels.
  • a pair of "input (x) and correct color (y)” is generated from the input image (RGB image).
  • the identification processing device 6 performs color space conversion processing for converting an RGB image to an Lab space on an input image (RGB image), and generates L values (brightness) of Lch and a values and b values of abch (color And are generated (S311).
  • the identification processing device 6 normalizes the L value (brightness) of Lch (S312).
  • the equation for this normalization is represented by the above equation (2).
  • the average luminance (Lavg) is a value calculated in the above-described calculation of the average luminance (S120).
  • the value resulting from Lch normalization is input (x).
  • the identification processing device 6 categorizes the a values and b values (colors) of abch and normalizes them (S313).
  • the method of categorization and normalization is the same as step S213 described above.
  • the value of the abch categorization result is the correct color (y).
  • the equation for calculating this heat map (h) is expressed by the following equation (5).
  • N k is the number of categories (Q).
  • "Hi, j" is the heat map value of the "i, j" th pixel.
  • Detection stage post-processing stage (S330)
  • the heat map (h) of the input image RGB image
  • the detection position (i, j) of the foreign matter F is obtained.
  • the identification processing device 6 sets the pixel (i, j) whose heat map value “hi, j” exceeds the predetermined threshold value Th1 as a defect “1”, and sets the other pixels as good. As a result, the heat map (h) is binarized (S331). Next, the identification processing device 6 calculates the distance between pixels of defect “1”, and classifies pixels of defect “1” whose distances are equal to or less than a predetermined threshold value Th2 into the same cluster (S332). Next, the identification processing device 6 calculates the center of gravity of each cluster, and outputs the pixel (i, j) of the center of gravity as the detected position (i, j) of the foreign matter F (S333).
  • the detection position (i, j) at which the foreign matter F of the food B in the inspection object A being transported is identified by the transport means 2 is output.
  • the lowest illuminance among the four corners of the angle of view of the imaging target location imaged by the imaging unit 4 Is preferably 80% or more, and more preferably 90% or more of the illuminance at the center of the angle of view.
  • a color reconstruction convolutional neural network using L values since the L value input to the neural network is greatly affected, it is possible to perform reproducible learning by stabilizing the illuminance.
  • features are extracted by obtaining a plurality of feature maps through a neural network by convolution processing using a convolutional layer.
  • the number of pixels of the original image size is reproduced through a neural network by deconvolution processing by a deconvolution layer.
  • a more conceptual feature extraction becomes possible by repeating these multiple times in the nested form (second, third,..., N-th layer).
  • the sub image (RGB image) is obtained by cutting out with an image size less than about 10 times the average pixel length of the food B captured in the learning image.
  • the average pixel length of food B the maximum number of pixels in either vertical or horizontal direction when food B to be an object is imaged is measured, and when a predetermined plurality (10 as an example here) is imaged Is the average value of In learning of color reconstruction using this luminance, first, the L value (input (x)) of the learning image or sub-image is input, and the color reconstructed reconstruction category obtained from the n-th deconvoluted layer You can get a karmic expression.
  • the L values of the input image are input to the first convolution layer and the categorical representation obtained from the nth layer (The difference between the food assumption image) and the categorical expression obtained from the input image is obtained, and pixels exceeding a predetermined threshold value with respect to the difference are detected as “non-defective object (that is, foreign matter)”.
  • Example 2 of the identification processing device 6 according to the present embodiment will be described with reference to FIGS. 13 to 15.
  • 13 to 15 are diagrams showing an identification processing method of Example 2 of the identification processing apparatus 6 according to the present embodiment.
  • the present identification processing method includes the model learning stage and the detection stage, as in the first embodiment described above.
  • the model learning stage is a stage of performing learning of a neural network used in the detection stage.
  • the second embodiment uses a convolutional neural network for reconstruction using a self-coder.
  • the detection step is a step of identifying the foreign matter F of the food B in the inspection object A being transported by the transport means 2 using the neural network learned in the model learning stage.
  • Model learning stage The model learning stage according to the second embodiment will be described with reference to FIGS. 13 and 14.
  • the data preparation step (S100) is performed first, and then the learning step (S200) is performed, as in the procedure shown in FIG. 3 of the first embodiment described above.
  • the calculation step (S120) of the average luminance is not performed in the data preparation step (S100).
  • the data preparation step (S100) according to the second embodiment includes a preparation step (S110) of learning data.
  • the preparation step (S110) of learning data according to the second embodiment is the same as the first embodiment (FIG. 4) described above, and thus the description thereof is omitted.
  • step S112 decomposition processing into sub-images
  • the learning step (S200) according to the second embodiment will be described.
  • the learning stage (S200) according to the second embodiment includes a pre-processing stage (S210) and a model learning stage (S220).
  • S210 pre-processing stage
  • S220 model learning stage
  • each step (S210, S220) of the learning step (S200) according to the second embodiment will be described with reference to FIGS. 13 and 14, respectively.
  • FIG. 13 is an explanatory diagram of the preprocessing step (S210) according to the second embodiment.
  • a learning input image RGB image, “Pin1 ⁇ Pin2” pixel
  • the pre-processing step (S210) according to the second embodiment for the learning set (Train set) and the validation set (Validation set), from the respective learning input image (RGB image) (Y) "pair is generated.
  • the identification processing device 6 standardizes each channel (ch) of RGB with respect to the learning input image (RGB image, “Pin1 ⁇ Pin2” pixel) (S2110).
  • the equation for this normalization is expressed by the following equation (6). Equation (6) is an example of a method of standardization.
  • “Xi, j, k” is a value resulting from the normalization of channel k of the “i, j” -th pixel.
  • normalization of each channel of RGB is performed, but normalization of each channel of RGB may be performed using an average value of each channel of RGB.
  • the method of normalization of each channel of RGB is the same as the method of normalization of the L value (brightness) according to the first embodiment described above.
  • FIG. 14 is an explanatory diagram of a learning step (S220) of a model according to the second embodiment.
  • a pair of “input (x) and correct image (y)” of the learning set (Train set) and “input (x) of the validation set (Validation set)” The neural network “CAE (f ( ⁇ ))” is learned using the pair of correct image (y) ”.
  • the structure of the neural network “CAE (f ( ⁇ ))” according to the second embodiment is the same as the structure of the neural network "model Net (f ( ⁇ ))" of FIG. 12 according to the first embodiment described above.
  • the identification processing device 6 uses a pair of “input (x) and correct image (y)” of the training set (Train set) to minimize the loss of “Binary Cross-entropy” neural network “CAE (f (f)”
  • the parameter ( ⁇ ) of “( ⁇ ))” is learned (S2210, S2220).
  • the formula for calculating loss (E (y, y ⁇ ) of Binary Cross-entropy is expressed by the following equation (7): “yi, j, k” of the correct image (y) is “i, j” It is a value of channel k (RGB each ch) of the th pixel.
  • the identification processing device 6 repeats learning of the parameter ( ⁇ ) of the neural network “CAE (f ( ⁇ ))” by a fixed number of iterations (epochs).
  • the identification processing device 6 uses the pair of “input (x) and correct image (y)” of the validation set (Validation set) to repeat the parameter ( ⁇ ) for each repetition of learning of the parameter ( ⁇ ). Verify.
  • the above-described steps S2210 and S2220 are performed using the pair of “input (x) and correct image (y)” of the validation set (Validation set), and “Binary Cross-entropy” Calculate the loss (E (y, y ⁇ ) of the most recent parameter ( ⁇ ) when this loss (E (y, y ⁇ ) falls) as the best parameter.
  • ( ⁇ ) is a parameter ( ⁇ ) applied to the neural network “CAE (f ( ⁇ ))” used in the detection stage.
  • FIG. 15 is an explanatory diagram of each step (S310, S320, S330) of the detection step (S300) according to the second embodiment.
  • each step (S310, S320, S330) of the detection step (S300) according to the second embodiment will be described with reference to FIG.
  • the input image is an RGB image of the image D1 in which the inspection object A being transported is imaged by the imaging unit 4.
  • the size of the input image is “P1 ⁇ P2” pixels.
  • a pair of "input (x) and correct image (y)” is generated from the input image (RGB image).
  • the identification processing device 6 standardizes each channel (ch) of RGB with respect to the input image (RGB image) (S3110).
  • the calculation formula of this normalization is represented by the above-mentioned formula (6).
  • “Xi, j, k” is a value resulting from the normalization of channel k of the “i, j” -th pixel.
  • Detection stage Prediction stage (S320)
  • the prediction step (S320) using the neural network “CAE (f ( ⁇ ))” in which only good products S of the food B were learned in the model learning step according to the second embodiment described above, the input image (RGB image) A heat map (h) is generated from the pair of “input (x) and correct image (y)”.
  • the equation for calculating this heat map (h) is expressed by the following equation (8). "Hi, j" is the heat map value of the "i, j" th pixel.
  • Detection stage post-processing stage (S330)
  • the heat map (h) of the input image RGB image
  • the post-processing step (S330) according to the second embodiment is the same as the above-described first embodiment (the post-processing step (S330) in FIG. 9), and thus the description thereof is omitted.
  • the detection position (i, j) at which the foreign matter F of the food B in the inspection object A being transported is identified by the transport means 2 is output.
  • the neural network “CAE (f ( ⁇ ))” is a convolutional neural network for reconstruction using a self-coder, and is an example of a food reconstruction neural network.
  • a learning image or sub-image (input (x)) is to obtain a plurality of feature maps through a neural network by convolution processing using a convolution layer.
  • the feature is extracted in the next step and then reconstructed via a neural network by deconvolution processing by a deconvoluted layer.
  • more conceptual feature extraction becomes possible by repeating the convolution process and the deconvolution process multiple times in a nested manner.
  • the learning of the convolutional neural network for reconstruction using this self-coder is such that the output from the final deconvolution layer matches the original input learning image or sub-image (correct image (y)) as much as possible. That is, learning is performed so that the loss function representing the difference is as low as possible.
  • a loss function such as BCE (Binary Cross-entropy) can be used as the loss function.
  • the conveyance means 2 may not be.
  • the inspection object A may be imaged and inspected while being dropped.
  • the inspection object A may be configured to be imaged and inspected while being rotationally dropped. By imaging and inspecting the inspection object A while rotating and dropping it, it is possible to image and inspect a plurality of directions and all directions of the inspection object A.
  • the food inspection apparatus 1 uses the food B for confirming that there is no mixture of foreign substances F as the inspection object A, the light irradiation means 3 for irradiating light to the inspection object A, and the image of the inspection object A
  • the identification processing device 6 is provided with a food reconstruction neural network in which only the non-defective item S of the food B is learned in advance, and the image obtained by the imaging means 4 is provided. From the food reconstruction neural network, the food hypothesis image is reconstructed, and the difference between the image obtained by the imaging unit 4 and the food hypothesis image is calculated, and the difference is set in advance as a threshold value.
  • the inspection object A exceeding the above is identified as a foreign matter.
  • the food hypothesis image is “an image that predicts the case where all the food B picked up were all good items S”, and the food hypothesis image and the image obtained by the imaging unit 4 It becomes possible to identify the inspection object A, whose difference exceeds a predetermined threshold value, as a foreign matter. As a result, there is no need to learn foreign matter, so it is possible to cope with any foreign matter, and to improve the robustness of the food inspection to confirm that there is no mixture of foreign matter, that is, to improve versatility in abnormality determination. it can.
  • the identification processing device 6 of the embodiment may be realized by dedicated hardware, or may be configured by a computer system such as a personal computer to realize the function of the identification processing device 6 of the embodiment.
  • the function may be realized by executing the program of
  • an input device, a display device or the like may be connected to the identification processing device 6 as a peripheral device.
  • the input device refers to an input device such as a keyboard and a mouse.
  • the display device refers to a CRT (Cathode Ray Tube), a liquid crystal display device, or the like.
  • the peripheral device may be directly connected to the identification processing device 6, or may be connected via a communication line.

Abstract

検査対象物に光を照射する光照射手段と、検査対象物Aの映像を撮像する撮像手段と、識別処理装置と、を備え、識別処理装置は、予め食品の良品のみを学習した食品再構成ニューラルネットワークを備えており、撮像手段によって得られた画像から、食品再構成ニューラルネットワークを用いて、食品仮定画像を再構成し、撮像手段によって得られた画像と食品仮定画像との差分を算出し、差分が予め設定していた閾値を超える検査対象物を異物として識別する。

Description

食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法
 本発明は、食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法に関する。
 従来、食品などの検査対象物に混在する異物を検出する食品検査装置に関し、金属検知やX線検査など各種の技術が提案されている。近年は、撮影画像を画像処理して、異物を検出するものも提案されている(特許文献1)。
 特許文献1(請求項1参照)には、食物等の腐敗する物質の腐敗部サンプルと健全部サンプルについてそれぞれの分光画像を取得し、各サンプルについての吸光スペクトルの違いを利用して主成分分析や回帰分析等の統計的手法により腐敗部か否かを判定する検量式を作成し、該検量式に同種物質の未知サンプルの分光画像を当てはめて該未知サンプルが腐敗部か否かを判断することが記載されている。
 しかしながら、特許文献1の判定方法では、腐敗部サンプルとは異なる異物に対して異物の検出精度が落ちる可能性があった。そのため、一定の検出精度を維持するには、想定されるすべての異物に対して機械学習することが必要であるが、時間や労力、コンピュータの処理能力などの制約により実施が難しい場合があった。
特開2005-201636号公報
 本発明は、このような事情を考慮してなされたものであり、その目的は、異物の混在がないことを確認する食品検査のロバスト性の向上を図ることができる食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法を提供することにある。
 このような目的を達成するため、本発明は、以下の構成によって把握される。
(1)本発明は、異物の混在がないことを確認する食品を検査対象物として前記検査対象物に光を照射する光照射手段と、前記検査対象物の映像を撮像する撮像手段と、識別処理装置と、を備え、前記識別処理装置は、予め食品の良品のみを学習した食品再構成ニューラルネットワークを備えており、前記撮像手段によって得られた画像から、前記食品再構成ニューラルネットワークを用いて、食品仮定画像を再構成し、前記撮像手段によって得られた前記画像と前記食品仮定画像との差分を算出し、前記差分が予め設定していた閾値を超える検査対象物を異物として識別するものである。
(2)本発明は、上記(1)の構成において、前記食品再構成ニューラルネットワークとして自己符号化器を用いた再構成の畳み込みニューラルネットワークを用いることを特徴とするものである。
(3)本発明は、上記(1)の構成において、前記食品再構成ニューラルネットワークとして輝度のみを用いた色再構成を用いることを特徴とするものである。
(4)本発明は、上記(1)から(3)までのいずれか1つの構成の食品検査装置によって、検査対象物の食品に異物の混在がないことを確認する食品検査方法である。
(5)本発明は、上記(1)の構成の食品検査装置の食品再構成ニューラルネットワークの学習方法であって、前記食品検査装置の撮像手段によって、異物の混在がないことを確認する食品を撮像し、前記食品検査装置の撮像手段によって得られた元画像に基づく前記食品の良品が写っている且つ異物が写っていない良品画像から畳み込みニューラルネットワークが生成する食品仮定画像と、前記撮像手段によって得られた前記画像との差分が最小化されるように学習を行うものである。
(6)本発明は、上記(5)の構成の学習方法であって、前記食品検査装置の撮像手段によって前記食品の良品のみを撮像することにより、前記良品画像を得ることを特徴とするものである。
(7)本発明は、上記(5)の構成の学習方法であって、前記元画像から異物の画像を取り除く処理を行うことにより、前記良品画像を得ることを特徴とするものである。
 本発明によれば、異物の混在がないことを確認する食品検査のロバスト性の向上を図ることができる食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法を提供することができる。
本発明の実施形態に係る食品検査装置を示す概略図である。 検査対象物の識別状態を示す概略図である。 本発明の実施形態に係る識別処理装置の実施例1の識別処理方法のモデル学習段階の処理の手順を示すフロー図である。 実施例1に係る学習データの準備段階(S110)の説明図である。 実施例1に係る平均輝度の計算段階(S120)の説明図である。 実施例1に係る前処理段階(S210)の説明図である。 実施例1に係るモデルの学習段階(S220)の説明図である。 本発明の実施形態に係る識別処理装置の実施例1の識別処理方法の検知段階の処理の手順を示すフロー図である。 実施例1に係る検知段階(S300)の各段階(S310,S320,S330)の説明図である。 ab空間のカテゴリカル化(RGB色域)の例を示すグラフである。 ピクセルのab値のカテゴリカル化の表現例を示す説明図である。 実施例1に係るニューラルネットワーク「モデルNet(f(θ))」の構造の例を示す概念図である。 実施例2に係る前処理段階(S210)の説明図である。 実施例2に係るモデルの学習段階(S220)の説明図である。 実施例2に係る検知段階(S300)の各段階(S310,S320,S330)の説明図である。
 以下、添付図面を参照して、本発明を実施するための形態(以下、「実施形態」と称する)について詳細に説明する。実施形態の説明の全体を通して同じ要素には同じ符号を付している。
 まず、異物Fの混在がないことを確認したい食品B(検査対象物A)から、異物Fをインラインで識別する食品検査装置1について、図1に基づいて説明する。図1は本発明の実施形態に係る食品検査装置を示す概略図である。図1に示される食品検査装置1は、搬送手段2と、光照射手段3と、撮像手段4と、識別処理装置6とを備える。
 搬送手段2は、検査対象物Aを上流工程から検査場所Cでの検査工程を経て下流工程へ搬送するもので、ベルトコンベアなどから構成されている。搬送手段2は、2m/分から20m/分程度の搬送速度で検査対象物Aを搬送する。検査対象物Aは、食品Bの良品Sと異物Fを含む。
 光照射手段3は、検査場所Cに在る検査対象物Aに光を照射する。なお、光照射手段3は、補光器32を含んでもよい。また、光照射手段3は、検査場所C側に取り付けられた偏向フィルタ33を含んでもよい。
 撮像手段4は、検査場所Cに在る搬送中の検査対象物Aを撮像するもので、CCDカメラや、ハイパースペクトルカメラなどで構成される。また、撮像手段4は、検査場所C側に取り付けられ、偏向フィルタ33の位相とは異なる位相とした偏向フィルタ41を含んでもよい。
 識別処理装置6は、検査対象物A中の食品Bの異物Fを識別するものである。識別処理装置6は、撮像手段4により撮像された映像D1から検査対象物A中の食品Bの異物Fを識別する。
 識別処理装置6は、映像D1に基づいて、搬送手段2によって搬送中の検査対象物Aから異物Fをインラインで識別する。この識別処理装置6は、検査対象物Aから異物Fを識別する処理を、あらかじめディープラーニングにより学習している。
 図2は、検査対象物の識別状態を示す概略図である。図2においては、搬送手段2によって搬送中の検査対象物Aから異物F1,F2がインラインで識別されている。異物F2は、食品B中に良品Sの部分と混在するものである。
 次に本実施形態に係る識別処理装置6について、実施例1,2を挙げて説明する。
[実施例1]
 本実施形態に係る識別処理装置6の実施例1について、図3から図12を参照して説明する。図3から図12は、本実施形態に係る識別処理装置6の実施例1の識別処理方法を示す図である。本識別処理方法は、モデル学習段階と、検知段階と、から構成される。モデル学習段階は、検知段階で使用されるニューラルネットワークの学習を行う段階である。実施例1では、輝度のみを用いた色再構成を行うように、ニューラルネットワークの学習を行う。検知段階は、モデル学習段階で学習したニューラルネットワークを使用して、搬送手段2によって搬送中の検査対象物A中の食品Bの異物Fを識別する段階である。
<モデル学習段階>
 図3から図7を参照して、実施例1に係るモデル学習段階を説明する。図3は、本実施形態に係る識別処理装置の実施例1の識別処理方法のモデル学習段階の処理の手順を示すフロー図である。図3に示されるように、モデル学習段階では、まずデータ準備段階(S100)が行われ、次いで学習段階(S200)が行われる。
(データ準備段階)
 データ準備段階(S100)を説明する。データ準備段階(S100)は、学習データの準備段階(S110)と、平均輝度の計算段階(S120)と、から構成される。以下、データ準備段階(S100)の各段階(S110,S120)を、図4,図5をそれぞれ参照して説明する。
(データ準備段階:学習データの準備段階(S110))
 図4は、学習データの準備段階(S110)の説明図である。学習データの準備段階(S110)では、実施例1に係る学習段階(S200)で使用されるデータを準備する。
この準備のために、まず、複数枚(Nall枚)の学習用画像(RGB画像)を用意する。学習用画像(RGB画像)は、食品Bの良品Sが写っている且つ異物Fが写っていない画像である。学習用画像(RGB画像)のサイズは、「P1×P2」ピクセル(px)である。学習用画像(RGB画像)は、撮像手段4によって食品Bの良品Sのみが撮像された画像であってもよい。この場合、撮像手段4により撮像された良品Sの映像D1が複数枚(Nall枚)の学習用画像(RGB画像)となる。又は、学習用画像(RGB画像)は、撮像手段4によって撮像された食品Bの良品S及び異物Fの映像D1から、異物Fの画像を取り除く処理が行われた後の映像D1であってもよい。この場合、撮像手段4により撮像された映像D1から異物Fの画像を取り除く処理が行われた後の映像D1が複数枚(Nall枚)の学習用画像(RGB画像)となる。異物Fの画像を取り除く処理は、異物Fが写っている画像自体を取り除く処理であってもよく、又は、異物Fが写っている画像から当該異物Fの画像領域を消す処理(例えば、白色で塗りつぶす処理等)であってもよい。
 次に、Nall枚の学習用画像(RGB画像)を使用して、データ準備段階(S100)を行う。まず、Nall枚の学習用画像(RGB画像)を、Nall枚のX%の枚数の学習用画像(RGB画像)と、Nall枚の(100-X)%の枚数の学習用画像(RGB画像)と、に分ける(S111)。Nall枚のX%の枚数の学習用画像(RGB画像)は、学習セット(Train set)の学習用画像(RGB画像)である。Nall枚の(100-X)%の枚数の学習用画像(RGB画像)は、検証セット(Validation set)の学習用画像(RGB画像)である。学習セット(Train set)は、ニューラルネットワークの学習に使用される。検証セット(Validation set)は、ニューラルネットワークの学習のクオリティを検証するために使用される。
 次いで、学習セット(Train set)と、検証セット(Validation set)とに対して、それぞれの学習用画像(RGB画像)を、「P3×P3」ピクセル(px)のサブ画像(RGB画像)に分解する(S112、但し、「P1>P3,P2>P3」である)。また、1枚の学習用画像(RGB画像)から分解された複数枚のサブ画像(RGB画像)の間には、重なりがないようにする。
 なお、ステップS112(サブ画像への分解処理)は実行しなくてもよい。ステップS112(サブ画像への分解処理)を実行しない場合、学習セット(Train set)の学習用画像(RGB画像)及び検証セット(Validation set)の学習用画像(RGB画像)がそのまま以降の処理で使用される。但し、サブ画像に分解することにより、後述するステップS200の学習段階における画素組み合わせを指数関数的に減らすことができるので、当該学習段階の学習時間の短縮が可能となる。
 以降の処理の説明では、ステップS112(サブ画像への分解処理)が実行されたとして説明を行う。
(データ準備段階:平均輝度の計算段階(S120))
 図5は、実施例1に係る平均輝度の計算段階(S120)の説明図である。識別処理装置6は、学習セット(Train set)のNtrain枚のサブ画像(RGB画像)を計算対象にして、平均輝度の計算段階(S120)を行う。まず、識別処理装置6は、学習セット(Train set)のNtrain枚のサブ画像(RGB画像)のそれぞれから輝度チャネル(輝度ch)を抽出する(S121)。次いで、識別処理装置6は、該抽出されたNtrain枚のサブ画像の輝度チャネル(輝度ch)を使用して、平均輝度(Lavg)を計算する(S122)。この平均輝度(Lavg)の計算式は、次式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 識別処理装置6によって計算された平均輝度(Lavg)は、学習段階(S200)におけるニューラルネットワークの学習で使用される入力データを正規化するために使用される。
(学習段階)
 学習段階(S200)を説明する。学習段階(S200)は、前処理段階(S210)と、モデルの学習段階(S220)と、から構成される。以下、学習段階(S200)の各段階(S210,S220)を、図6,図7をそれぞれ参照して説明する。
(学習段階:前処理段階(S210))
 図6は、実施例1に係る前処理段階(S210)の説明図である。前処理段階(S210)には、学習入力画像(RGB画像、「Pin1×Pin2」ピクセル)が入力される。学習データの準備段階(S110)においてステップS112(サブ画像への分解処理)が実行された場合、学習入力画像はサブ画像(Pin1=Pin2=P3)である。一方、学習データの準備段階(S110)においてステップS112(サブ画像への分解処理)が実行されなかった場合には、学習入力画像は学習用画像(Pin1=P1、Pin2=P2)である。前処理段階(S210)では、学習セット(Train set)と、検証セット(Validation set)とに対して、それぞれの学習入力画像(RGB画像)から「入力(x)と正解色(y)」のペアを生成する。
 識別処理装置6は、学習入力画像(RGB画像、「Pin1×Pin2」ピクセル)に対して、RGB空間からLab空間へ変換する色空間変換処理を行い、Lチャネル(Lch)のL値(輝度)と、abチャネル(abch)のa値及びb値(色)とを生成する(S211)。
 次いで、識別処理装置6は、LchのL値(輝度)を正規化する(S212)。この正規化の計算式は、次式(2)で表される。平均輝度(Lavg)は、上述した平均輝度の計算段階(S120)で計算された値である。なお、式(2)は正規化の方法の一例である。
Figure JPOXMLDOC01-appb-M000002
 Lchの正規化の結果の値は入力(x={xi,j})である。「xi,j」は、「i,j」番目のピクセルのL値(輝度)の正規化の結果の値である。
 なお、上述したステップS212では、平均輝度(Lavg)を使用してL値(輝度)を正規化したが、正規化の代わりに、L値(輝度)を規格化してもよい。L値(輝度)の規格化は、上記の式(2)において平均輝度(Lavg)を0にすればよい(つまり、上記の式(2)の分子をL値「Li,j」にする)。但し、L値(輝度)を、規格化よりも正規化した方が、後述するステップS200の学習段階における学習効率をよくすることができる。
 また、識別処理装置6は、abchのa値及びb値(色)を、カテゴリカル化し、規格化する(S213)。abchのカテゴリカル化の結果の値は正解色(y)である。
 ここで、図10,図11を参照して、abchのa値及びb値(色)のカテゴリカル化と規格化の方法を説明する。図10は、ab空間のカテゴリカル化(RGB色域)の例を示すグラフである。図11は、ピクセルのab値のカテゴリカル化と規格化の表現例を示す説明図である。
 まず、図10に示されるように、予め、ab空間を、任意のカテゴリ数(Q)のカテゴリ基底(図10中の丸印)に均等的に離散化する。次いで、カテゴリカル化する対象の画像の各ピクセルについて、ピクセル値(p)に最も近い所定の複数個数(図10の例では5個)のカテゴリ基底(vk)を判定する。次いで、該判定結果の各カテゴリ基底(vk)とピクセル値(p)との間の距離を重みとしたベクタ(y’)を求める。最後にクラス間の重みを規格化し、ベクタ(y)を算出する。このベクタ(y={yk})の計算式は、次式(3)で表される(式(3)の例ではカテゴリ基底(vk)の個数は5個)。
Figure JPOXMLDOC01-appb-M000003
 ベクタ(y)は、ピクセル値(p)のカテゴリカル化と規格化の表現である。図11に示されるカテゴリカル化と規格化の表現の一例では、カテゴリ数をQ個として(つまり、式(3)において、kは1からQまでの整数である)、ピクセル値(p:a値「-34」,b値「65」)のカテゴリカル化と規格化の表現「ベクタ(y={yk})」が示されている。
(学習段階:モデルの学習段階(S220))
 図7は、実施例1に係るモデルの学習段階(S220)の説明図である。モデルの学習段階(S220)では、学習セット(Train set)の「入力(x)と正解色(y)」のペアと、検証セット(Validation set)の「入力(x)と正解色(y)」のペアとを使用して、ニューラルネットワーク「モデルNet(f(θ))」の学習を行う。
 ここで、図12を参照して、ニューラルネットワーク「モデルNet(f(θ))」の構造を説明する。図12は、実施例1に係るニューラルネットワーク「モデルNet(f(θ))」の構造の例を示す概念図である。
 図12に示されるニューラルネットワーク「モデルNet(f(θ))」は、例えば8個の層(Layer)から構成される、畳み込みニューラルネットワークである。第1層は入力層である。第2層から第4層までは畳み込み層である。第5層から第7層までは逆畳み込み層であり、第8層は出力層である。入力画像は、サイズが「Pin1×Pin2」ピクセルであり、na個のチャネルから構成される。本実施例1では、入力画像はLch(輝度チャネル)のみである(つまり、na=1)。第2層の出力サイズは「P4×P4×16」である。第3層、第4層及び第5層の出力サイズは「P5×P5×16」である。第6層の出力サイズは「P4×P4×16」である。第7層の出力サイズは「Pin1×Pin2×16」である。第8層の出力サイズは、「Pin1×Pin2×nb」である。本実施例1では、nbはabchのカテゴリ数(Q)である(つまり、nb=Q)。Pin1,Pin2,P3,P4,P5の大小関係は「Pin1又はPin2≧Pin2又はPin1>P4>P5」である。
 以下、図7を参照して、モデルの学習段階(S220)を説明する。
 識別処理装置6は、学習セット(Train set)の「入力(x)と正解色(y)」のペアを使用して、「Categorical Cross-entropy」のロスを最小化するニューラルネットワーク「モデルNet(f(θ))」のパラメータ(θ)を学習する(S221,S222)。ステップS221では、入力(x)をニューラルネットワーク「モデルNet(f(θ))」に入力して、ニューラルネットワーク「モデルNet(f(θ))」の出力値を予測色(y^=fθ(x))とする。次いで、ステップS222では、予測色(y^=fθ(x))と正解色(y)とを使用して、「Categorical Cross-entropy」のロス(E(y,y^)を計算する。「Categorical Cross-entropy」のロス(E(y,y^)の計算式は、次式(4)で表される。Qは、上述したステップS213のabchのカテゴリカル化におけるカテゴリ数である。正解色(y)の「yi,j,k」は、「i,j」番目のピクセルの第kカテゴリの値(つまり、式(3)によるyk)である。予測色(y^)の「y^i,j,k」は、ニューラルネットワーク「モデルNet(f(θ))」の「i,j」番目の出力値の第kカテゴリの値である。
Figure JPOXMLDOC01-appb-M000004
 「Categorical Cross-entropy」のロス(E(y,y^)を最小化するニューラルネットワーク「モデルNet(f(θ))」のパラメータ(θ)を学習する方法として、誤差逆伝搬法と確率的勾配降下法(Stochastic Gradient Descent:SGD)とを使用する。
 識別処理装置6は、ニューラルネットワーク「モデルNet(f(θ))」のパラメータ(θ)の学習を、一定の反復数(epochs)だけ繰り返して行う。識別処理装置6は、該パラメータ(θ)の学習の繰り返し毎に、検証セット(Validation set)の「入力(x)と正解色(y)」のペアを使用して、該パラメータ(θ)を検証する。このパラメータ(θ)の検証では、検証セット(Validation set)の「入力(x)と正解色(y)」のペアを使用して、上述したステップS221,S222を行い、「Categorical Cross-entropy」のロス(E(y,y^)を計算する。このロス(E(y,y^)が下がったときの最新のパラメータ(θ)をベストパラメータとして保存する。この保存されたベストパラメータのパラメータ(θ)は、検知段階で使用されるニューラルネットワーク「モデルNet(f(θ))」に適用されるパラメータ(θ)である。
 以上が実施例1に係るモデル学習段階の説明である。このモデル学習段階によって、食品Bの良品Sのみを学習したニューラルネットワーク「モデルNet(f(θ))」が生成される。
<検知段階>
 図8,図9を参照して、実施例1に係る検知段階を説明する。図8は、本実施形態に係る識別処理装置の実施例1の識別処理方法の検知段階の処理の手順を示すフロー図である。図8に示されるように、検知段階(S300)では、まず前処理段階(S310)が行われ、次いで予測段階(S320)が行われ、次いで後処理段階(S330)が行われる。図9は、実施例1に係る検知段階(S300)の各段階(S310,S320,S330)の説明図である。以下、検知段階(S300)の各段階(S310,S320,S330)を、図9を参照して説明する。
(検知段階:前処理段階(S310))
 入力画像は、撮像手段4によって、搬送中の検査対象物Aが撮像された映像D1のRGB画像である。入力画像(RGB画像)のサイズは、「P1×P2」ピクセルである。前処理段階(S310)では、入力画像(RGB画像)から「入力(x)と正解色(y)」のペアを生成する。
 識別処理装置6は、入力画像(RGB画像)に対して、RGB空間からLab空間へ変換する色空間変換処理を行い、Lch)のL値(輝度)と、abchのa値及びb値(色)とを生成する(S311)。次いで、識別処理装置6は、LchのL値(輝度)を正規化する(S312)。この正規化の計算式は、上述の式(2)で表される。平均輝度(Lavg)は、上述した平均輝度の計算段階(S120)で計算された値である。Lchの正規化の結果の値は入力(x)である。また、識別処理装置6は、abchのa値及びb値(色)を、カテゴリカル化し、規格化する(S313)。このカテゴリカル化と規格化の方法は、上述したステップS213と同じである。abchのカテゴリカル化の結果の値は正解色(y)である。
(検知段階:予測段階(S320))
 予測段階(S320)では、上述したモデル学習段階で食品Bの良品Sのみを学習したニューラルネットワーク「モデルNet(f(θ))」を使用して、入力画像(RGB画像)の「入力(x)と正解色(y)」のペアからヒートマップ(h)を生成する。
 まず、識別処理装置6は、入力(x)をニューラルネットワーク「モデルNet(f(θ))」に入力して、ニューラルネットワーク「モデルNet(f(θ))」の出力値を予測色(y^=fθ(x))とする(S321)。次いで、識別処理装置6は、予測色(y^=fθ(x))と正解色(y)との間の再構成誤差(ヒートマップ(h))を、ピクセル毎に計算する(S322)。このヒートマップ(h)の計算式は、次式(5)で表される。Nkはカテゴリ数(Q)である。「hi,j」は、「i,j」番目のピクセルのヒートマップ値である。
Figure JPOXMLDOC01-appb-M000005
(検知段階:後処理段階(S330))
 後処理段階(S330)では、入力画像(RGB画像)のヒートマップ(h)を使用して、異物Fの検知位置(i,j)を求める。
 まず、識別処理装置6は、ヒートマップ(h)において、ヒートマップ値「hi,j」が所定の閾値Th1を超えるピクセル(i,j)を不良「1」とし、その他のピクセルを良「0」として、ヒートマップ(h)をバイナリ化する(S331)。次いで、識別処理装置6は、不良「1」のピクセル同士の間の距離を計算し、該距離が所定の閾値Th2以下である不良「1」のピクセル同士を同じクラスターに分類する(S332)。次いで、識別処理装置6は、各クラスターの重心を計算し、該重心のピクセル(i,j)を異物Fの検知位置(i,j)として出力する(S333)。
 以上が実施例1に係る検知段階の説明である。この検知段階によって、搬送手段2によって搬送中の検査対象物A中の食品Bの異物Fが識別された検知位置(i,j)が出力される。
 上述した実施例1において、ニューラルネットワーク「モデルNet(f(θ))」は、L値(輝度)を用いた色再構成の畳み込みニューラルネットワークであり、食品再構成ニューラルネットワークの例である。また、予測色(y^=fθ(x))は食品仮定画像の例である。
 なお、ニューラルネットワーク「モデルNet(f(θ))」の学習に使用される学習用画像(RGB画像)の撮像において、撮像手段4により撮像される撮像対象場所の画角四隅のうちの最低照度は、画角中央の照度の80%以上であることが好ましく、より好ましくは90%以上である。L値を用いた色再構成の畳み込みニューラルネットワークでは、ニューラルネットワークにインプットされるL値に大きく作用されるため、照度を安定させることで、再現性のある学習を行いやくなる。
 また、L値(輝度)を用いた色再構成の畳み込みニューラルネットワークの学習において、畳み込み層による畳み込み処理によってニューラルネットワークを経て複数のフィーチャーマップを得ることで特徴抽出される。次に逆畳み込み層による逆畳み込み処理によってニューラルネットワークを経て元の画像サイズのピクセル数を再現する。これらを複数回入れ子状(第2、3、…、第n層)に繰り返すことで、より概念的な特徴抽出が可能となる。
 この輝度を用いた色再構成の学習には、サブ画像(RGB画像)を用いるのが好ましい。サブ画像(RGB画像)は、学習用画像に写りこむ食品Bの平均ピクセル長の約10倍未満の画像サイズで切り出して得られる。なお、食品Bの平均ピクセル長とは、対象となる食品Bを撮像したときの縦・横いずれかの最大ピクセル数を計測し、所定複数個(ここでの例として10個)を撮像したときの平均値である。
 この輝度を用いた色再構成の学習では、まず学習用画像またはサブ画像のL値(入力(x))を入力し、第nの逆畳み込み層から得られた色再構成された再構成カテゴリカル表現が得られる。元画像である学習用画像またはサブ画像のカテゴリカル表現(正解色(y))と再構成カテゴリカル表現(予測色(y^=fθ(x)))との損失(ロス)関数(Categorical Cross-entropy)が極力低くなるように学習される。
 また、L値(輝度)を用いた色再構成の畳み込みニューラルネットワークを使用する検知段階では、入力画像のL値を第1の畳み込み層に入力して第n層から得られたカテゴリカル表現(食品仮定画像)と、入力画像から得られたカテゴリカル表現との差分を求め、その差分に対して予め定めた閾値を超えるピクセルを「良品でない物体(つまり、異物)」として検出する。
 以上が実施例1の説明である。
[実施例2]
 本実施形態に係る識別処理装置6の実施例2について、図13から図15を参照して説明する。図13から図15は、本実施形態に係る識別処理装置6の実施例2の識別処理方法を示す図である。本識別処理方法は、上述した実施例1と同様に、モデル学習段階と、検知段階と、から構成される。モデル学習段階は、検知段階で使用されるニューラルネットワークの学習を行う段階である。実施例2では、自己符号化器を用いた再構成の畳み込みニューラルネットワークを用いる。検知段階は、モデル学習段階で学習したニューラルネットワークを使用して、搬送手段2によって搬送中の検査対象物A中の食品Bの異物Fを識別する段階である。
<モデル学習段階>
 図13及び図14を参照して、実施例2に係るモデル学習段階を説明する。実施例2に係るモデル学習段階は、上述した実施例1の図3に示される手順と同様に、まずデータ準備段階(S100)が行われ、次いで学習段階(S200)が行われる。但し、実施例2では、データ準備段階(S100)において、平均輝度の計算段階(S120)は実行されない。
(データ準備段階)
 実施例2に係るデータ準備段階(S100)は、学習データの準備段階(S110)から構成される。実施例2に係る学習データの準備段階(S110)は、上述した実施例1(図4)と同じであるので、その説明を省略する。なお、実施例1と同様に、ステップS112(サブ画像への分解処理)は実行してもしなくてもよい。
(学習段階)
 実施例2に係る学習段階(S200)を説明する。実施例2に係る学習段階(S200)は、前処理段階(S210)と、モデルの学習段階(S220)と、から構成される。
以下、実施例2に係る学習段階(S200)の各段階(S210,S220)を、図13,図14をそれぞれ参照して説明する。
(学習段階:前処理段階(S210))
 図13は、実施例2に係る前処理段階(S210)の説明図である。前処理段階(S210)には、学習入力画像(RGB画像、「Pin1×Pin2」ピクセル)が入力される。実施例2に係る学習データの準備段階(S110)においてステップS112(サブ画像への分解処理)が実行された場合、学習入力画像はサブ画像(Pin1=Pin2=P3)である。一方、実施例2に係る学習データの準備段階(S110)においてステップS112(サブ画像への分解処理)が実行されなかった場合には、学習入力画像は学習用画像(Pin1=P1、Pin2=P2)である。実施例2に係る前処理段階(S210)では、学習セット(Train set)と、検証セット(Validation set)とに対して、それぞれの学習入力画像(RGB画像)から「入力(x)と正解画像(y)」のペアを生成する。
 識別処理装置6は、学習入力画像(RGB画像、「Pin1×Pin2」ピクセル)に対して、RGB各チャネル(ch)の規格化を行う(S2110)。この規格化の計算式は、次式(6)で表される。なお、式(6)は規格化の方法の一例である。
Figure JPOXMLDOC01-appb-M000006
 RGB各chの規格化の結果の値は入力(x={xi,j,k})である。「xi,j,k」は、「i,j」番目のピクセルのチャンネルkの規格化の結果の値である。また、入力(x={xi,j,k})とペアの正解画像(y)として、当該入力(x={xi,j,k})を使用する。つまり、一つのペアにおいて、入力(x)と正解画像(y)とは同じである。
 なお、上述した実施例2に係る前処理段階(S210)では、RGB各chの規格化を行ったが、RGB各chの平均値を使用してRGB各chの正規化を行ってもよい。RGB各chの正規化の方法は、上述した実施例1に係るL値(輝度)の正規化の方法と同様である。
(学習段階:モデルの学習段階(S220))
 図14は、実施例2に係るモデルの学習段階(S220)の説明図である。実施例2に係るモデルの学習段階(S220)では、学習セット(Train set)の「入力(x)と正解画像(y)」のペアと、検証セット(Validation set)の「入力(x)と正解画像(y)」のペアとを使用して、ニューラルネットワーク「CAE(f(θ))」の学習を行う。
 実施例2に係るニューラルネットワーク「CAE(f(θ))」の構造は、上述した実施例1に係る図12のニューラルネットワーク「モデルNet(f(θ))」の構造と同様である。但し、図12において、実施例2に係るニューラルネットワーク「CAE(f(θ))」では、入力画像は、サイズが「Pin1×Pin2」ピクセルであり、RGBの3個のチャネルから構成される(つまり、na=3)。また、第8層の出力サイズは、「Pin1×Pin2×3」である(つまり、nb=3)。本実施例2では、na及びnbはRGBのチャネル数「3」である(na=nb=3)。
 以下、図14を参照して、実施例2に係るモデルの学習段階(S220)を説明する。
 識別処理装置6は、学習セット(Train set)の「入力(x)と正解画像(y)」のペアを使用して、「Binary Cross-entropy」のロスを最小化するニューラルネットワーク「CAE(f(θ))」のパラメータ(θ)を学習する(S2210,S2220)。ステップS2210では、入力(x)をニューラルネットワーク「CAE(f(θ))」に入力して、ニューラルネットワーク「CAE(f(θ))」の出力値を予測画像(y^=fθ(x))とする。次いで、ステップS2220では、予測画像(y^=fθ(x))と正解画像(y)とを使用して、「Binary Cross-entropy」のロス(E(y,y^)を計算する。「Binary Cross-entropy」のロス(E(y,y^)の計算式は、次式(7)で表される。正解画像(y)の「yi,j,k」は、「i,j」番目のピクセルのチャンネルk(RGB各ch)の値である。予測画像(y^)の「y^i,j,k」は、ニューラルネットワーク「CAE(f(θ))」の「i,j」番目の出力値のチャンネルk(RGB各ch)の値である。
Figure JPOXMLDOC01-appb-M000007
 「Binary Cross-entropy」のロス(E(y,y^)を最小化するニューラルネットワーク「CAE(f(θ))」のパラメータ(θ)を学習する方法として、誤差逆伝搬法と確率的勾配降下法(Stochastic Gradient Descent:SGD)とを使用する。
 識別処理装置6は、ニューラルネットワーク「CAE(f(θ))」のパラメータ(θ)の学習を、一定の反復数(epochs)だけ繰り返して行う。識別処理装置6は、該パラメータ(θ)の学習の繰り返し毎に、検証セット(Validation set)の「入力(x)と正解画像(y)」のペアを使用して、該パラメータ(θ)を検証する。このパラメータ(θ)の検証では、検証セット(Validation set)の「入力(x)と正解画像(y)」のペアを使用して、上述したステップS2210,S2220を行い、「Binary Cross-entropy」のロス(E(y,y^)を計算する。このロス(E(y,y^)が下がったときの最新のパラメータ(θ)をベストパラメータとして保存する。この保存されたベストパラメータのパラメータ(θ)は、検知段階で使用されるニューラルネットワーク「CAE(f(θ))」に適用されるパラメータ(θ)である。
 以上が実施例2に係るモデル学習段階の説明である。このモデル学習段階によって、食品Bの良品Sのみを学習したニューラルネットワーク「CAE(f(θ))」が生成される。
<検知段階>
 図15を参照して、実施例2に係る検知段階を説明する。実施例2に係る検知段階は、上述した実施例1の図8に示される検知段階(S300)の手順と同様に、まず前処理段階(S310)が行われ、次いで予測段階(S320)が行われ、次いで後処理段階(S330)が行われる。図15は、実施例2に係る検知段階(S300)の各段階(S310,S320,S330)の説明図である。以下、実施例2に係る検知段階(S300)の各段階(S310,S320,S330)を、図15を参照して説明する。
(検知段階:前処理段階(S310))
 入力画像は、撮像手段4によって、搬送中の検査対象物Aが撮像された映像D1のRGB画像である。入力画像(RGB画像)のサイズは、「P1×P2」ピクセルである。前処理段階(S310)では、入力画像(RGB画像)から「入力(x)と正解画像(y)」のペアを生成する。
 識別処理装置6は、入力画像(RGB画像)に対して、RGB各チャネル(ch)の規格化を行う(S3110)。この規格化の計算式は、上述の式(6)で表される。RGB各chの規格化の結果の値は入力(x={xi,j,k})である。「xi,j,k」は、「i,j」番目のピクセルのチャンネルkの規格化の結果の値である。また、入力(x={xi,j,k})とペアの正解画像(y)として、当該入力(x={xi,j,k})を使用する。つまり、一つのペアにおいて、入力(x)と正解画像(y)とは同じである。
(検知段階:予測段階(S320))
 予測段階(S320)では、上述した実施例2に係るモデル学習段階で食品Bの良品Sのみを学習したニューラルネットワーク「CAE(f(θ))」を使用して、入力画像(RGB画像)の「入力(x)と正解画像(y)」のペアからヒートマップ(h)を生成する。
 まず、識別処理装置6は、入力(x)をニューラルネットワーク「CAE(f(θ))」に入力して、ニューラルネットワーク「CAE(f(θ))」の出力値を予測画像(y^=fθ(x))とする(S3210)。次いで、識別処理装置6は、予測画像(y^=fθ(x))と正解画像(y)との間の再構成誤差(ヒートマップ(h))を、ピクセル毎に計算する(S3220)。このヒートマップ(h)の計算式は、次式(8)で表される。「hi,j」は、「i,j」番目のピクセルのヒートマップ値である。
Figure JPOXMLDOC01-appb-M000008
 なお、ヒートマップ(h)の他の計算方法として、正解画像(y)と予測画像(y^=fθ(x))との差分をグレースケール変換し、このグレースケール変換後の値をヒートマップ値に使用してもよい。
(検知段階:後処理段階(S330))
 後処理段階(S330)では、入力画像(RGB画像)のヒートマップ(h)を使用して、異物Fの検知位置(i,j)を求める。実施例2に係る後処理段階(S330)は、上述した実施例1(図9の後処理段階(S330)と同じであるので、その説明を省略する。
 以上が実施例2に係る検知段階の説明である。この検知段階によって、搬送手段2によって搬送中の検査対象物A中の食品Bの異物Fが識別された検知位置(i,j)が出力される。
 上述した実施例2において、ニューラルネットワーク「CAE(f(θ))」は、自己符号化器を用いた再構成の畳み込みニューラルネットワークであり、食品再構成ニューラルネットワークの例である。また、予測画像(y^=fθ(x))は食品仮定画像の例である。
 なお、自己符号化器を用いた再構成の畳み込みニューラルネットワークの学習において、学習用画像またはサブ画像(入力(x))は、畳み込み層による畳み込み処理によってニューラルネットワークを経て複数のフィーチャーマップを得ることで特徴抽出され、次に逆畳み込み層による逆畳み込み処理によってニューラルネットワークを経て再構成される。さらに、畳み込み処理と逆畳み込み処理を複数回入れ子状に繰り返すことで、より概念的な特徴抽出が可能となる。
 この自己符号化器を用いた再構成の畳み込みニューラルネットワークの学習は、最終逆畳み込み層からの出力が元の入力された学習用画像またはサブ画像(正解画像(y))と極力一致するように、つまり差分を表す損失関数が極力低くなるように学習される。この時の損失関数は、BCE(Binary Cross-entropy)といった損失関数が利用できる。
 以上が実施例2の説明である。
 なお、上述した図1に示される食品検査装置1は搬送手段2を備えたが、搬送手段2は無くてもよい。例えば、検査対象物Aを落下させながら撮像して検査するように構成してもよい。さらには、検査対象物Aを回転落下させながら撮像して検査するように構成してもよい。検査対象物Aを回転落下させながら撮像して検査することによって、検査対象物Aの複数の方向さらには全方向を撮像して検査することができる。
 以上、説明した実施形態の効果について述べる。
 実施形態の食品検査装置1は、異物Fの混在がないことを確認する食品Bを検査対象物Aとして該検査対象物Aに光を照射する光照射手段3と、検査対象物Aの映像を撮像する撮像手段4と、識別処理装置6と、を備え、識別処理装置6は、予め食品Bの良品Sのみを学習した食品再構成ニューラルネットワークを備えており、撮像手段4によって得られた画像から、該食品再構成ニューラルネットワークを用いて、食品仮定画像を再構成し、撮像手段4によって得られた該画像と該食品仮定画像との差分を算出し、該差分が予め設定していた閾値を超える検査対象物Aを異物として識別するものである。この食品検査装置1によれば、食品仮定画像は「もし仮に撮像された食品Bが全て良品Sであった場合を予測した画像」であり、食品仮定画像と撮像手段4によって得られた画像との差分が予め設定していた閾値を超える検査対象物Aを異物として識別することが可能となる。これにより、異物を学習する必要がないので、任意の異物に対応することができ、異物の混在がないことを確認する食品検査のロバスト性、つまり異常判別においての汎用性の向上を図ることができる。特に、食品再構成ニューラルネットワークとしてL値(輝度)のみを用いた色再構成の畳み込みニューラルネットワークを用いれば、自己符号化器を用いた再構成の畳み込みニューラルネットワークと比べて、ニューラルネットワークの詳細設計モデルの検査対象物依存性が少なく、L値のみを用いた色再構成の畳み込みニューラルネットワークの詳細設計モデルを変更することなく、多様な検査対象物に対して汎用的に現場で学習し、異物の混在がないことを確認することができる。
 また、食品再構成ニューラルネットワークとして輝度のみを用いた色再構成を用いることにより、食品再構成ニューラルネットワークの学習において輝度のみから色を再構成させるという難題を学習させるので、結果的に自明なルールの学習が避けられて学習効率が向上する効果が期待される。
 また、実施形態の識別処理装置6は、専用のハードウェアにより実現されるものであってもよく、あるいはパーソナルコンピュータ等のコンピュータシステムにより構成され、実施形態の識別処理装置6の機能を実現するためのプログラムを実行することによりその機能を実現させるものであってもよい。
 また、その識別処理装置6には、周辺機器として入力装置、表示装置等が接続されてもよい。ここで、入力装置とはキーボード、マウス等の入力デバイスのことをいう。表示装置とはCRT(Cathode Ray Tube)や液晶表示装置等のことをいう。
 また、上記周辺機器については、識別処理装置6に直接接続するものであってもよく、あるいは通信回線を介して接続するようにしてもよい。
 以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
1  食品検査装置
2  搬送手段
3  光照射手段
32 補光器
4  撮像手段
6  識別処理装置
A  検査対象物
B  食品
S  良品
F  異物

Claims (7)

  1.  異物の混在がないことを確認する食品を検査対象物として前記検査対象物に光を照射する光照射手段と、
     前記検査対象物の映像を撮像する撮像手段と、
     識別処理装置と、を備え、
     前記識別処理装置は、
     予め食品の良品のみを学習した食品再構成ニューラルネットワークを備えており、
     前記撮像手段によって得られた画像から、前記食品再構成ニューラルネットワークを用いて、食品仮定画像を再構成し、
     前記撮像手段によって得られた前記画像と前記食品仮定画像との差分を算出し、
     前記差分が予め設定していた閾値を超える検査対象物を異物として識別する、
     食品検査装置。
  2.  請求項1に記載の食品検査装置であって、
     前記食品再構成ニューラルネットワークとして輝度のみを用いた色再構成を用いることを特徴とする食品検査装置。
  3.  請求項1に記載の食品検査装置であって、
     前記食品再構成ニューラルネットワークとして自己符号化器を用いた再構成の畳み込みニューラルネットワークを用いることを特徴とする食品検査装置。
  4.  請求項1から3までのいずれか1項に記載の食品検査装置によって、
     検査対象物の食品に異物の混在がないことを確認する食品検査方法。
  5.  請求項1に記載の食品検査装置の食品再構成ニューラルネットワークの学習方法であって、
     前記食品検査装置の撮像手段によって、異物の混在がないことを確認する食品を撮像し、
     前記食品検査装置の撮像手段によって得られた元画像に基づく前記食品の良品が写っている且つ異物が写っていない良品画像から畳み込みニューラルネットワークが生成する食品仮定画像と、前記撮像手段によって得られた前記画像との差分が最小化されるように学習を行う、
     食品検査装置の食品再構成ニューラルネットワークの学習方法。
  6.  請求項5に記載の学習方法であって、
     前記食品検査装置の撮像手段によって前記食品の良品のみを撮像することにより、前記良品画像を得ることを特徴とする、
     食品検査装置の食品再構成ニューラルネットワークの学習方法。
  7.  請求項5に記載の学習方法であって、
     前記元画像から異物の画像を取り除く処理を行うことにより、前記良品画像を得ることを特徴とする、
     食品検査装置の食品再構成ニューラルネットワークの学習方法。
PCT/JP2018/048323 2017-12-27 2018-12-27 食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法 WO2019131945A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017252576A JP2021042955A (ja) 2017-12-27 2017-12-27 食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法
JP2017-252576 2017-12-27

Publications (1)

Publication Number Publication Date
WO2019131945A1 true WO2019131945A1 (ja) 2019-07-04

Family

ID=67067529

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/048323 WO2019131945A1 (ja) 2017-12-27 2018-12-27 食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法

Country Status (2)

Country Link
JP (1) JP2021042955A (ja)
WO (1) WO2019131945A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7046150B1 (ja) 2020-12-03 2022-04-01 Ckd株式会社 基板異物検査装置及び基板異物検査方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7072953B1 (ja) 2021-11-11 2022-05-23 吉泉産業株式会社 計量異物検知包装装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136466A (ja) * 1994-11-10 1996-05-31 Dainippon Screen Mfg Co Ltd 画像パターン検査装置
JP2004334814A (ja) * 2003-05-07 2004-11-25 Susumu Shiroyama モノクロ画像のカラー化手法、装置、プログラム
JP2009115613A (ja) * 2007-11-06 2009-05-28 Hitachi High-Tech Control Systems Corp 異物検査装置
US20160117845A1 (en) * 2014-10-27 2016-04-28 King Fahd University Petroleum and Minerals Contamination level estimation method for high voltage insulators
JP2017111085A (ja) * 2015-12-18 2017-06-22 株式会社流通システム設計 食品検査システム及び食品検査方法
JP6241576B1 (ja) * 2016-12-06 2017-12-06 三菱電機株式会社 検査装置及び検査方法
JP2017219529A (ja) * 2016-06-07 2017-12-14 株式会社豊田中央研究所 外観異常検査装置、方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136466A (ja) * 1994-11-10 1996-05-31 Dainippon Screen Mfg Co Ltd 画像パターン検査装置
JP2004334814A (ja) * 2003-05-07 2004-11-25 Susumu Shiroyama モノクロ画像のカラー化手法、装置、プログラム
JP2009115613A (ja) * 2007-11-06 2009-05-28 Hitachi High-Tech Control Systems Corp 異物検査装置
US20160117845A1 (en) * 2014-10-27 2016-04-28 King Fahd University Petroleum and Minerals Contamination level estimation method for high voltage insulators
JP2017111085A (ja) * 2015-12-18 2017-06-22 株式会社流通システム設計 食品検査システム及び食品検査方法
JP2017219529A (ja) * 2016-06-07 2017-12-14 株式会社豊田中央研究所 外観異常検査装置、方法、及びプログラム
JP6241576B1 (ja) * 2016-12-06 2017-12-06 三菱電機株式会社 検査装置及び検査方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7046150B1 (ja) 2020-12-03 2022-04-01 Ckd株式会社 基板異物検査装置及び基板異物検査方法
WO2022118523A1 (ja) * 2020-12-03 2022-06-09 Ckd株式会社 基板異物検査装置及び基板異物検査方法
JP2022088818A (ja) * 2020-12-03 2022-06-15 Ckd株式会社 基板異物検査装置及び基板異物検査方法

Also Published As

Publication number Publication date
JP2021042955A (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
JP7250331B2 (ja) 画像生成装置、検査装置及び学習装置
CN104169945B (zh) 对图像中的对象的两级分类
US9180552B2 (en) System and method for identifying defects in welds by processing X-ray images
Barbedo et al. Deoxynivalenol screening in wheat kernels using hyperspectral imaging
CN107271375A (zh) 一种羊肉品质指标的高光谱图像检测方法
KR20180071405A (ko) 단일 이미지 검출
WO2019151393A1 (ja) 食品検査システム、食品検査プログラム、食品検査方法および食品生産方法
US20220244194A1 (en) Automated inspection method for a manufactured article and system for performing same
CN106716125A (zh) 纳米颗粒分析器
WO2019131945A1 (ja) 食品検査装置、食品検査方法及び食品検査装置の食品再構成ニューラルネットワークの学習方法
US20230222645A1 (en) Inspection apparatus, unit selection apparatus, inspection method, and computer-readable storage medium storing an inspection program
Kandlbauer et al. Sensor-based particle size determination of shredded mixed commercial waste based on two-dimensional images
Kong et al. Mask R‐CNN‐based feature extraction and three‐dimensional recognition of rice panicle CT images
Sola-Guirado et al. A smart system for the automatic evaluation of green olives visual quality in the field
PT104902A (pt) Método de inspecção não destrutivo e não evasivo de materiais vegetais baseado na utilização de radiação electromagnética
Faltynkova et al. Developing and testing a workflow to identify microplastics using near infrared hyperspectral imaging
Hena et al. Deep learning neural network performance on NDT digital X-ray radiography images: Analyzing the impact of image quality parameters—an experimental study
JP7250330B2 (ja) 検査装置及び学習装置
WO2022065110A1 (ja) X線検査装置およびx線検査方法
JP2005252451A (ja) 画質検査方法及び画質検査装置
JP7240780B1 (ja) 検査装置
Grönroos et al. Automated visual inspection of CMS HGCAL silicon sensor surface using an ensemble of a deep convolutional autoencoder and classifier
WO2023095520A1 (ja) 教師データ生成装置、教師データ生成方法、プログラム及び欠陥検査装置
Damien et al. Sorting of crop residues and fossil bones from soil by NIR Hyperspectral Imaging
WO2020189087A1 (ja) X線検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18896710

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18896710

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP