JP2021018082A - Detection device of foreign matter - Google Patents

Detection device of foreign matter Download PDF

Info

Publication number
JP2021018082A
JP2021018082A JP2019132238A JP2019132238A JP2021018082A JP 2021018082 A JP2021018082 A JP 2021018082A JP 2019132238 A JP2019132238 A JP 2019132238A JP 2019132238 A JP2019132238 A JP 2019132238A JP 2021018082 A JP2021018082 A JP 2021018082A
Authority
JP
Japan
Prior art keywords
light
image
image data
foreign matter
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019132238A
Other languages
Japanese (ja)
Other versions
JP7262766B2 (en
Inventor
浩一 坂田
Koichi Sakata
浩一 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OMICHI SANGYO KK
Original Assignee
OMICHI SANGYO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OMICHI SANGYO KK filed Critical OMICHI SANGYO KK
Priority to JP2019132238A priority Critical patent/JP7262766B2/en
Publication of JP2021018082A publication Critical patent/JP2021018082A/en
Application granted granted Critical
Publication of JP7262766B2 publication Critical patent/JP7262766B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a detection device of a foreign matter which can determine a portion where a foreign matter adheres to an object.SOLUTION: A detection device of a foreign matter comprises: an upper surface irradiation unit 111 and a lower surface irradiation unit 112 which irradiate an inspection object with light from an upper surface or a lower surface of a transparent or translucent conveyor 41 conveying the inspection object W and whose irradiation angle with respect to the conveyor can be changed; an image data acquisition unit 21 which images the inspection object from the upper surface of the conveyor, and can move so as to approach to or separate from the conveyor. The detection device of a foreign matter is an image determination device which extracts an extraction object from the image data, analyzes an image and determines a foreign matter from the image data obtained from an image data acquisition unit and comprises: a section division unit which divides the image data into sections; and an image identification unit which has a machine learning result of a feature amount of the extraction object with a method of deep learning, and calculates a possibility that the section is the extraction object for each section of the image data divided by the section division unit on the basis of the machine learning result.SELECTED DRAWING: Figure 35

Description

本発明は、異物の検出装置に係る。詳細には、AIを使用する異物の判別部を設けた異物の検出装置に係る。例えば、被検査物として緑色野菜中の昆虫等異物の検出装置に係る。 The present invention relates to a foreign matter detecting device. More specifically, the present invention relates to a foreign matter detecting device provided with a foreign matter discriminating portion using AI. For example, it relates to a detection device for foreign substances such as insects in green vegetables as an object to be inspected.

被検査物(撮影対象物)中の異物(抽出対象物、昆虫)の検出装置としては、種々のものが知られている。更に、被検査物に、可視光及び赤外光を照射して、異物を発見する被検査物中の異物の検出装置は種々のものが知られている。 Various types of detection devices for foreign substances (extraction objects, insects) in the object to be inspected (photographed object) are known. Further, there are various known devices for detecting foreign substances in an inspected object by irradiating the inspected object with visible light and infrared light to detect foreign substances.

特開2007−033273号公報JP-A-2007-033273 特表2008−541007号公報Special Table 2008-541007 特開2002−48727号公報JP-A-2002-48727 特開2013−3129号公報Japanese Unexamined Patent Publication No. 2013-3129 特開2006−3134号公報Japanese Unexamined Patent Publication No. 2006-3134

可視光及び赤外光を照射して、異物を発見する装置としては以下のものが知られている。
特許文献1「白色系食品の異物検出装置」には、「白色系食品20に混入した有色異物を検出する白色系食品の異物検出装置において、前記白色系食品を搬送する搬送コンベア10と、該搬送コンベアの上方に設置され前記食品の光学画像を撮像するカメラ14と、該画像に対して2値化処理を含む画像処理を行い異物を検出する画像処理手段と、を備えた装置であって、前記搬送コンベア10のうち前記食品20が載置されるベルト面10aを白色光透過性材料で形成するとともに、前記搬送コンベア上の撮像領域Aより上方に位置して前記撮像領域に向けて白色光を照射する第1の白色照明16、17と、該撮像領域に対して前記ベルト面の下方から白色光を照射する第2の白色照明18と、を備えた構成とする。」。そして、「凹凸のある検出対象であっても高精度で以って異物検出を行うことができる白色系食品の異物検出装置を提供する。」とされる。
The following devices are known as devices for detecting foreign substances by irradiating visible light and infrared light.
Patent Document 1 "Foreign matter detection device for white food" includes "a transport conveyor 10 for transporting the white food in a foreign substance detection device for white food that detects colored foreign matter mixed in the white food 20" and the same. A device including a camera 14 installed above a transport conveyor to capture an optical image of the food, and an image processing means for performing image processing including binarization processing on the image to detect foreign matter. The belt surface 10a on which the food 20 is placed is formed of a white light-transmitting material, and is located above the imaging region A on the transport conveyor and is white toward the imaging region. The configuration includes first white illuminations 16 and 17 that irradiate light, and second white illumination 18 that irradiates the imaging region with white light from below the belt surface. " Then, it is stated that "a foreign matter detecting device for white foods capable of detecting foreign matter with high accuracy even if the detection target has unevenness is provided."

特許文献2「食品の異物検出装置」は、「食品20に混入した毛髪、虫等の異物を検出する異物検出装置10において、前記食品20を検出領域Aに搬送する搬送コンベア11と、前記検出領域Aを挟んで少なくとも2方向から食品に対して照明光を照射する照明手段14、15と、検出領域Aの一側から前記食品の表画像を撮像する撮像カメラ12と、該撮像した表画像に対して2値化処理を含む画像処理を行い、異物を検出する画像処理手段13と、を備え、前記画像処理手段13が、前記撮像した表画像を2値化処理し、得られた2値画像のうち予め設定した黒色度の閾値を超える異常な1画素を検出した後に、該1画素に隣接する画素の異常の有無を検出し、異常画素が前記1画素を元に連続的に出現した場合に異物と判定する。このとき、異常画素が連続的な線状で出現した場合には毛髪等の繊維状異物と判定し、連続的な面積状に出現した場合には虫等の面積異物と判定する。」とされる。 Patent Document 2 "Foreign matter detection device for food" is a "foreign matter detection device 10 for detecting foreign matter such as hair and insects mixed in food 20, a transport conveyor 11 for transporting the food 20 to the detection region A, and the detection. Illumination means 14 and 15 that irradiate food with illumination light from at least two directions across the area A, an imaging camera 12 that captures a front image of the food from one side of the detection area A, and the captured table image. An image processing means 13 for detecting foreign matter by performing image processing including binarization processing on the image processing means 13 is provided, and the image processing means 13 binarizes the captured table image to obtain 2 After detecting an abnormal one pixel exceeding a preset blackness threshold in the value image, the presence or absence of an abnormality in a pixel adjacent to the one pixel is detected, and the abnormal pixel appears continuously based on the one pixel. At this time, if the abnormal pixels appear in a continuous linear shape, it is determined to be a fibrous foreign matter such as hair, and if they appear in a continuous area, the area of an insect or the like. It is determined to be a foreign substance. "

特許文献3「海苔の外観検査装置」は、「検査位置に対して上部に可視光及び赤外光を含んだ照明装置と、可視光及び赤外光を分離して受光できるカメラ装置を投受光面に対して一定の角度をもって配設し、被検体である海苔の表面の反射異物の反射光及び反射板の直射反射光とする可視光と、透過光である赤外光をカメラ装置に分離受光し、判定処理を行うことにより海苔の外形形状、カケ、穴、やぶれ、表面反射異物、表面異物、内面異物、裏面異物等の一部又は全部の検査を行う海苔の外観検査装置。」からなる。そのため、「検査位置においてコンベアを分離することなく、小型で高性能の外観検査装置を得る。
産地の相違等に関わらず、検査対象海苔の寸法に若干の大小が生じていても被検体を正確に検査位置に運ぶ。」とされる。
Patent Document 3 "Seaweed appearance inspection device" is a "light receiving and receiving light device that includes a visible light and an infrared light above the inspection position and a camera device that can separately receive the visible light and the infrared light. Arranged at a constant angle with respect to the surface, visible light, which is the reflected light of the reflected foreign matter on the surface of the seaweed, which is the subject, and the direct reflected light of the reflecting plate, and infrared light, which is the transmitted light, are separated into the camera device. A seaweed appearance inspection device that inspects part or all of the outer shape, chips, holes, blurring, surface reflection foreign matter, surface foreign matter, inner surface foreign matter, backside foreign matter, etc. of seaweed by receiving light and performing judgment processing. " Become. Therefore, "a compact and high-performance visual inspection device can be obtained without separating the conveyor at the inspection position.
Regardless of the difference in production area, the subject is accurately carried to the inspection position even if the size of the seaweed to be inspected is slightly different. ".

特許文献4は、「半透明の搬送ベルト16上に物品を載置させて移動させる搬送装置2と、搬送装置2を支持する支持架台3と、搬送ベルト16の下方に、半導体発光素子59,63,64,65をプリント基板57,61上に載置、固定したLED装着体53,54を配設し、搬送ベルト16を下方から照射する照射装置4と、搬送ベルト16を作動、制御すると共に、半導体発光素子59,63,64,65の発光を制御する制御装置5とから物品検査装置1を構成する。」からなる。「作業者が疲労し難く、作業効率を維持でき、視力を損なう虞がなく、健康上も問題なく、目視による検査が効率的にできる光透過性物品検査装置を提供する。」ことを目的とする。 Patent Document 4 describes, "A transport device 2 for placing and moving an article on a translucent transport belt 16, a support frame 3 for supporting the transport device 2, and a semiconductor light emitting element 59, below the transport belt 16. 63, 64, 65 are placed on the printed substrates 57, 61, fixed LED mounting bodies 53, 54 are arranged, and the irradiation device 4 for irradiating the transport belt 16 from below and the transport belt 16 are operated and controlled. At the same time, the article inspection device 1 is composed of the control device 5 that controls the light emission of the semiconductor light emitting elements 59, 63, 64, 65. " The purpose is to provide a light-transmitting article inspection device that makes it difficult for workers to get tired, maintains work efficiency, does not impair eyesight, has no health problems, and enables efficient visual inspection. To do.

特許文献5は、「照明手段から搬送手段上の検査位置にある農産物に光を照射した状態で撮像手段を用いて農産物を撮像し、その撮像データからIR値による農産物の輪郭切り出しを行うと共に、切り出した輪郭内の少なくともR、Gの各値から農産物の外観を計測する農産物の外観計測装置であって、照明手段は、赤外LED、赤色LED及び緑色LEDが一組として所定の配列で複数組み合わされていることを特徴とする。照明手段の各色LEDは、マトリックス状もしくは千鳥状に配列され、検査位置で各色LEDの全てが一括して点灯・消灯される。」からなる。「赤外LED、赤色LED及び緑色LEDを複数個所定パターンで配置した光源を使用することにより、輝度調整や交換頻度を低減させてメンテナンス作業を簡単かつコスト安価に行うことができる農産物の外観検査装置を提供する。」ことを目的とする。 Patent Document 5 states, "Agricultural products are imaged by using an imaging means in a state where the agricultural products at the inspection position on the transporting means are irradiated with light from the lighting means, and the outline of the agricultural products is cut out from the imaged data by the IR value. It is an appearance measuring device for agricultural products that measures the appearance of agricultural products from at least R and G values in the cut out contour, and a plurality of lighting means are a plurality of infrared LEDs, red LEDs, and green LEDs in a predetermined arrangement as a set. The LED of each color of the lighting means is arranged in a matrix or a staggered pattern, and all of the LEDs of each color are turned on and off at the inspection position. " "By using a light source in which a plurality of infrared LEDs, red LEDs, and green LEDs are arranged in a predetermined pattern, it is possible to reduce the frequency of brightness adjustment and replacement, and perform maintenance work easily and at low cost. The purpose is to provide the device.

特許文献1、同2、同3記載発明には、被検査物に、可視光及び赤外光を照射、すること、「白色系食品の異物検出装置において、」「撮像領域に向けて白色光を照射する」については記載がある。
しかしながら、特許文献1乃至3記載の発明では、異物の発見は容易とはいかなかった。
特許文献4、同5記載発明では、被検査物にLEDを照射し、カメラで撮影する調整が容易とはいかない課題を有した。
In the inventions described in Patent Documents 1, 2 and 3, the object to be inspected is irradiated with visible light and infrared light, "in a foreign matter detecting device for white food", and "white light toward an imaging region". There is a description about "irradiating."
However, in the inventions described in Patent Documents 1 to 3, it is not easy to find a foreign substance.
The inventions described in Patent Documents 4 and 5 have a problem that it is not easy to irradiate an object to be inspected with an LED and take a picture with a camera.

他方、発明者は、以下知見した。
1.異物(本件では昆虫)が付いた撮影対象物(本件ではレタス)に光を照射し、適正露出以上に露出を上げた状態を含む複数の状態で撮影し、異なる露出の画像を得る。
2.露出を上げると撮影対象物である背景は白っぽくなり、異物が見えやすくなる。
3.異なる露出の画像データを複数得る。
4.複数の異なる露出の画像データを基に、ディープラーニングの手法により異物を検出することで、異物の発見が容易となる。
5.異物(本件では昆虫)が付いた撮影対象物(本件ではレタス)に撮影対象物色と同色乃至近似した光を照射する。例えば、レタスの場合は、緑色の光の領域(波長495-570 nm)の光を照射し、撮影対象物である白色野菜に紫色光あるいは、青色光あるいは、紫外光を照射するとともに適正露出以上に露出を上げた状態を含む複数の状態で撮影し、異なる露出の画像を得ると、更に有効である。
On the other hand, the inventor found the following.
1. 1. An object to be photographed (lettuce in this case) with a foreign substance (insect in this case) is irradiated with light, and images are taken in a plurality of states including a state in which the exposure is higher than the appropriate exposure to obtain images with different exposures.
2. 2. Increasing the exposure makes the background, which is the object to be photographed, whitish, making it easier to see foreign objects.
3. 3. Obtain multiple image data with different exposures.
4. Foreign matter can be easily found by detecting foreign matter by a deep learning method based on a plurality of image data of different exposures.
5. Irradiate the object to be photographed (lettuce in this case) with a foreign substance (insect in this case) with light of the same color as or similar to the color of the object to be photographed. For example, in the case of lettuce, it is irradiated with light in the green light region (wavelength 495-570 nm), and the white vegetables to be photographed are irradiated with purple light, blue light, or ultraviolet light, and at least the appropriate exposure is achieved. It is even more effective to take pictures in a plurality of states including a state in which the exposure is increased to obtain images with different exposures.

更に、発明者は、異物を含んでいる撮影対象物(被写体)に、紫外光から赤外線光まで波長の異なる、例えばLED照明の光を連続変化させて(光の周波数をスィープして)、同時に適正露出以上に露出を上げて撮影した場合、画像で最も被写体が白く撮影されているものに使用された光の周波数が異物検出に適した光の周波数といえる、ことを知見した。
この光の周波数を求めるため、撮影対象物(被写体)に紫外光から赤外線光までの波長の異なる例えばLED照明の光を連続変化させて撮影し、白く撮影されている面積をコンピュータで計算することによって、異物検出に必要な光の周波数を特定することができる。
そして、撮影対象物(被写体)に、異物検出に必要な光の周波数を特定した、周波数の光をあてることで、より効率良く異物を特定できる。
Further, the inventor continuously changes the light of an LED illumination having a different wavelength from ultraviolet light to infrared light (sweeping the frequency of the light) to the object (subject) to be photographed containing a foreign substance, and at the same time. It was found that the frequency of the light used for the whitest subject in the image can be said to be the frequency of light suitable for detecting foreign matter when the image is taken with the exposure higher than the appropriate exposure.
In order to obtain the frequency of this light, the object (subject) to be photographed is photographed by continuously changing the light of, for example, LED illumination having different wavelengths from ultraviolet light to infrared light, and the area photographed in white is calculated by a computer. It is possible to specify the frequency of light required for detecting foreign matter.
Then, by irradiating the object to be photographed (subject) with light having a frequency that specifies the frequency of the light required for detecting the foreign matter, the foreign matter can be identified more efficiently.

この発明は、
被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
画像データから抽出対象物を抽出し画像解析にあたり、
撮影対象物に光を照射するとともに適正露出以上に露出を上げた状態を含む複数の状態で撮影して異なる露出の画像を得るとともに、画像データ取得部から得られる、画像データから異物を判別する異物の検出装置であって、
前記画像データを区分分割する区分分割部と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割部により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別部と、
前記画像識別部により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換部と、
前記識別結果変換部により変換された前記画素値を有する画像に画像処理を行う画像処理部と
を備えることを特徴とする異物の検出装置、
からなる。
This invention
An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
Extracting the extraction target from the image data and performing image analysis
While irradiating the object to be photographed with light and taking pictures in a plurality of states including a state in which the exposure is raised above the proper exposure, images with different exposures are obtained, and foreign matter is discriminated from the image data obtained from the image data acquisition unit. It is a foreign matter detection device
A division division unit that divides the image data and
It has a machine learning result of the feature amount of the extraction target object by the deep learning method, and based on the machine learning result, the division is extracted for each division of the image data divided by the division division unit. An image identification unit that calculates the probability of being an object,
An identification result conversion unit that converts the probability of being the extraction target for each category into a pixel value, which is calculated by the image identification unit.
A foreign matter detection device, which comprises an image processing unit that performs image processing on an image having the pixel value converted by the identification result conversion unit.
Consists of.

この発明は、
被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
画像データから抽出対象物を抽出し画像解析にあたり、
撮影対象物と同色乃至近似した光を照射するとともに適正露出以上に露出を上げた状態を含む複数の状態で撮影して異なる露出の画像を得るとともに、画像データ取得部から得られる、画像データから異物を判別する異物の検出装置であって、
前記画像データを区分分割する区分分割部と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割部により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別部と、
前記画像識別部により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換部と、
前記識別結果変換部により変換された前記画素値を有する画像に画像処理を行う画像処理部と
を備えることを特徴とする異物の検出装置、
からなる。
This invention
An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
Extracting the extraction target from the image data and performing image analysis
From the image data obtained from the image data acquisition unit, while irradiating light of the same color or similar to the object to be photographed and shooting in a plurality of states including a state in which the exposure is raised above the appropriate exposure, images with different exposures are obtained. It is a foreign matter detection device that discriminates foreign matter.
A division division unit that divides the image data and
It has a machine learning result of the feature amount of the extraction target object by the deep learning method, and based on the machine learning result, the division is extracted for each division of the image data divided by the division division unit. An image identification unit that calculates the probability of being an object,
An identification result conversion unit that converts the probability of being the extraction target for each category into a pixel value, which is calculated by the image identification unit.
A foreign matter detection device, which comprises an image processing unit that performs image processing on an image having the pixel value converted by the identification result conversion unit.
Consists of.

この発明は、
被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
画像データから抽出対象物を抽出し画像解析にあたり、
撮影対象物である白色野菜に紫色光あるいは、青色光あるいは、紫外光を照射するとともに適正露出以上に露出を上げた状態を含む複数の状態で撮影して異なる露出の画像を得るとともに、画像データ取得部から得られる、画像データから異物を判別する異物の検出装置であって、
前記画像データを区分分割する区分分割部と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割部により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別部と、
前記画像識別部により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換部と、
前記識別結果変換部により変換された前記画素値を有する画像に画像処理を行う画像処理部と
を備えることを特徴とする異物の検出装置、
からなる。
This invention
An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
Extracting the extraction target from the image data and performing image analysis
Images of different exposures can be obtained by irradiating white vegetables, which are the objects to be photographed, with purple light, blue light, or ultraviolet light and in multiple states including a state in which the exposure is raised above the proper exposure, and image data. A foreign matter detection device that discriminates foreign matter from image data obtained from the acquisition unit.
A division division unit that divides the image data and
It has a machine learning result of the feature amount of the extraction target object by the deep learning method, and based on the machine learning result, the division is extracted for each division of the image data divided by the division division unit. An image identification unit that calculates the probability of being an object,
An identification result conversion unit that converts the probability of being the extraction target for each category into a pixel value, which is calculated by the image identification unit.
A foreign matter detection device, which comprises an image processing unit that performs image processing on an image having the pixel value converted by the identification result conversion unit.
Consists of.

この発明は、更に、
前記画像処理部は、前記区分分割部により分割された前記画像データに画像処理を行い、
前記画像識別部は、前記画像処理部により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする異物の検出装置、
からなる。
The present invention further
The image processing unit performs image processing on the image data divided by the division division unit, and then performs image processing on the image data.
The image identification unit is a device for detecting a foreign substance, which calculates the probability of being the extraction target for each of the categories of the image data with respect to the image data image-processed by the image processing unit. ,
Consists of.

この発明は、更に、
緑色野菜に、
緑色光を照射するとともに、適正露出以上に露出を上げて撮影し、
緑色光の反射光を取り入れ画像データを得て、
画像データから異物を判別する異物の判別装置、
からなる。
The present invention further
For green vegetables
While irradiating with green light, take a picture with the exposure raised above the proper exposure.
Take in the reflected light of green light and obtain image data,
Foreign matter discrimination device that discriminates foreign matter from image data,
Consists of.

この発明は、更に、
赤色野菜に、
赤色光または近い赤外線光を照射するとともに、適正露出以上に露出を上げて撮影し、
赤色光または近赤外線光を取り入れ画像データを得て、
画像データから異物を判別する異物の判別装置、
からなる。
The present invention further
For red vegetables
Irradiate red light or near infrared light, and raise the exposure above the proper exposure to shoot.
Take in red light or near infrared light to obtain image data,
Foreign matter discrimination device that discriminates foreign matter from image data,
Consists of.

この発明は、
被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
異物を含んでいる撮影対象物に、紫外光から赤外線光まで波長の異なる光を連続変化させて照射するとともに、適正露出以上に露出を上げて撮影し、撮影したそれぞれの画像で白く撮影されている面積を演算し、それぞれの画像を比較することによって、画像で最も被写体が白く撮影されているものに使用された光の周波数が異物検出に適した光の周波数と判断し、
異物検出に必要な光の周波数を特定する異物の検出装置、
からなる。
This invention
An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
The object to be photographed containing foreign matter is irradiated with light of different wavelengths from ultraviolet light to infrared light by continuously changing the light, and the exposure is raised above the appropriate exposure, and each photographed image is photographed in white. By calculating the area covered and comparing each image, it is determined that the frequency of light used for the whitest subject in the image is the frequency of light suitable for detecting foreign matter.
Foreign matter detector, which identifies the frequency of light required for foreign matter detection
Consists of.

この発明は、
被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
画像データから抽出対象物を抽出し画像解析にあたり、
撮影対象物に光を照射するとともに適正露出以上に露出を上げた状態を含む複数の状態で撮影して異なる露出の画像を得るとともに、画像データ取得部から得られる、画像データから異物を判別する異物の検出装置であって、
前記画像データを区分分割する区分分割部と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割部により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別部と、
前記画像識別部により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換部と、
前記識別結果変換部により変換された前記画素値を有する画像に画像処理を行う画像処理部と、を備え、
撮影対象物に照射する光は、
異物を含んでいる撮影対象物に、紫外光から赤外線光まで波長の異なる光を連続変化させて照射するとともに、適正露出以上に露出を上げて撮影し、撮影したそれぞれの画像で白く撮影されている面積を演算し、それぞれの画像を比較することによって、画像で最も被写体が白く撮影されているものに使用された光の周波数が異物検出に適した光の周波数と判断し、
異物検出に必要な光の周波数を特定することを特徴とする異物の検出装置、
からなる。
This invention
An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
Extracting the extraction target from the image data and performing image analysis
While irradiating the object to be photographed with light and taking pictures in a plurality of states including a state in which the exposure is raised above the proper exposure, images with different exposures are obtained, and foreign matter is discriminated from the image data obtained from the image data acquisition unit. It is a foreign matter detection device
A division division unit that divides the image data and
It has a machine learning result of the feature amount of the extraction target object by the deep learning method, and based on the machine learning result, the division is extracted for each division of the image data divided by the division division unit. An image identification unit that calculates the probability of being an object,
An identification result conversion unit that converts the probability of being the extraction target for each category into a pixel value, which is calculated by the image identification unit.
An image processing unit that performs image processing on an image having the pixel value converted by the identification result conversion unit is provided.
The light that illuminates the object to be photographed is
The object to be photographed containing foreign matter is irradiated with light of different wavelengths from ultraviolet light to infrared light by continuously changing the light, and the exposure is raised above the appropriate exposure, and each photographed image is photographed in white. By calculating the area covered and comparing each image, it is determined that the frequency of light used for the whitest subject in the image is the frequency of light suitable for detecting foreign matter.
A foreign matter detector, characterized by identifying the frequency of light required for foreign matter detection.
Consists of.

野菜果実等撮影対象物(被検査物)に異物(抽出対象物、昆虫)が付着した部位の判別を可能とするAIを使用する異物判別部を設ける異物の検出装置を提供する。 Provided is a foreign matter detection device provided with a foreign matter discriminating unit using AI, which enables discrimination of a portion where a foreign matter (extraction target, insect) is attached to a photographed object (object to be inspected) such as vegetables and fruits.

この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置の使用状態の正面図である。It is a front view of the use state of the image discrimination apparatus which is the foreign matter discriminating part of one Embodiment used for the foreign matter detecting apparatus which is an embodiment of this invention. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像解析装置が有する機能について説明するための機能ブロック図である。It is a functional block diagram for demonstrating the function which the image analysis apparatus which is the foreign matter discriminating part of one Embodiment used for the foreign matter detecting apparatus which is an embodiment of this invention has. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像解析処理について説明するためのフローチャートである。It is a flowchart for demonstrating the image analysis processing which is the foreign matter discriminating part of one Embodiment used for the foreign matter detecting apparatus which is an embodiment of this invention. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像識別処理について説明するためのフローチャートである。It is a flowchart for demonstrating the image identification processing which is the foreign matter discriminating part of one Embodiment used for the foreign matter detecting apparatus which is an embodiment of this invention. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置のディープラーニングの手法を用いた抽出対象物である昆虫の付着したレタスについての学習結果を有している識別器による処理について説明するための図である。Learning about lettuce to which insects, which are the objects to be extracted, are attached by using the deep learning method of the image discrimination device, which is the foreign body discrimination unit of one embodiment used for the foreign matter detection device according to the embodiment of the present invention. It is a figure for demonstrating the processing by the classifier which has a result. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置したレタスに、可視光である緑色光を照射し適正露出で撮影したレタスと虫の見え方をあらわす図である。Lettuce photographed with appropriate exposure by irradiating lettuce installed in an image discrimination device, which is a foreign matter discrimination unit of one embodiment used in the foreign matter detection device according to the embodiment of the present invention, with green light which is visible light. It is a diagram showing how the insects look. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第1実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the first embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第2実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。The lettuce of the second embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第2実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the second embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第2実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the second embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第3実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。The lettuce of the third embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第3実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the third embodiment installed in the image discrimination device, which is the foreign matter discrimination unit of one embodiment used for the foreign matter detection device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第3実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the third embodiment installed in the image discrimination device, which is the foreign matter discrimination unit of one embodiment used for the foreign matter detection device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第4実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。The lettuce of the fourth embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第4実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the fourth embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第4実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the fourth embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第5実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。The lettuce of the fifth embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第5実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the fifth embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第5実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the fifth embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第6実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。The lettuce of the sixth embodiment installed in the image discriminating device, which is the foreign matter discriminating unit of one embodiment used for the foreign matter detecting device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第6実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the sixth embodiment installed in the image discrimination device, which is the foreign matter discrimination unit of one embodiment used in the foreign matter detection device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第6実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the sixth embodiment installed in the image discrimination device, which is the foreign matter discrimination unit of one embodiment used in the foreign matter detection device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第6実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the sixth embodiment installed in the image discrimination device, which is the foreign matter discrimination unit of one embodiment used in the foreign matter detection device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第6実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the sixth embodiment installed in the image discrimination device, which is the foreign matter discrimination unit of one embodiment used in the foreign matter detection device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第6実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the sixth embodiment installed in the image discrimination device, which is the foreign matter discrimination unit of one embodiment used in the foreign matter detection device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第6実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the sixth embodiment installed in the image discrimination device, which is the foreign matter discrimination unit of one embodiment used in the foreign matter detection device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置に使用する一実施の形態の異物の判別部である画像判別装置に設置した第6実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。The lettuce of the sixth embodiment installed in the image discrimination device, which is the foreign matter discrimination unit of one embodiment used in the foreign matter detection device of the embodiment of the present invention, is appropriately irradiated with green light which is visible light. It is an image diagram taken by raising the exposure more than the exposure. この発明の実施の形態である異物の検出装置の正面図である。It is a front view of the foreign matter detection device which is an embodiment of this invention. この発明の実施の形態である異物の検出装置の左側面図である。It is a left side view of the foreign matter detection device which is an embodiment of this invention. この発明の実施の形態である異物の検出装置の右側面図である。It is a right side view of the foreign matter detection device which is an embodiment of this invention. この発明の実施の形態である異物の検出装置の平面図である。It is a top view of the foreign matter detection apparatus which is an embodiment of this invention. この発明の実施の形態である異物の検出装置の底面図である。It is a bottom view of the foreign matter detection device which is an embodiment of this invention. この発明の実施の形態である異物の検出装置の背面図である。It is a rear view of the foreign matter detection device which is an embodiment of this invention. この発明の実施の形態である異物の検出装置の斜視図である。It is a perspective view of the foreign matter detection apparatus which is an embodiment of this invention. この発明の実施の形態である異物の検出装置のコンベアに設置状態の斜視図である。It is a perspective view of the state of installation on the conveyor of the foreign matter detection apparatus which is an embodiment of this invention.

31は、異物の検出装置である。異物の検出装置31は、抽出対象物、異物である昆虫Aを検出する。本発明の実施例では、主に野菜等の被検査物(撮影対象物)Wの撮影機である。異物の検出装置31は、下部に取り付けたキャスタ32により移動可能である。
41は、コンベアである。コンベア41は、プラスチック、ウレタンゴム、エチレン・プロピレンゴム等からなり、透明あるいは半透明からなる。コンベア41は、被検査物Wを搬送する。コンベア41は、モータの駆動で被検査物Wを移動させる。
異物の検出装置31は、上部アーム33と、下部アーム34と支柱35を有する。
上部アーム33と下部アーム34は、支柱35に取り付ける。上部アーム33は、支柱35に沿って図28乃至図35図中上下方向に移動可能であるとともに、軸方向に角度を変更可能である。
Reference numeral 31 is a foreign matter detecting device. The foreign matter detecting device 31 detects the extraction target, the insect A which is a foreign matter. In the embodiment of the present invention, it is mainly a camera for an object to be inspected (object to be photographed) W such as vegetables. The foreign matter detecting device 31 can be moved by the caster 32 attached to the lower part.
41 is a conveyor. The conveyor 41 is made of plastic, urethane rubber, ethylene / propylene rubber, or the like, and is transparent or translucent. The conveyor 41 conveys the object W to be inspected. The conveyor 41 moves the object W to be inspected by driving a motor.
The foreign matter detecting device 31 has an upper arm 33, a lower arm 34, and a support column 35.
The upper arm 33 and the lower arm 34 are attached to the support column 35. The upper arm 33 can be moved in the vertical direction in FIGS. 28 to 35 along the support column 35, and the angle can be changed in the axial direction.

異物の検出装置31に使用する異物の判別部である画像判別装置1は、照射部11、画像データ取得部21を有する。画像データ取得部21は、カメラからなる。
照射部11は、上面照射部111と下面照射部112とからなる。照射部11は、LEDライトからなる。
照射部11は、緑色光(495-570 nm)、赤色光(620-750 nm)、近赤外線(0.7 - 2.5 μm)、オレンジ色、橙色光(590-620 nm)、黄色光(570-590 nm)、紫色光(380-450 nm)青色光(450-495 nm)、紫外光(10 - 400 nm)の発光が可能である。
カメラからなる画像データ取得部21、照射部11を、上部アーム33先端に下向きに、設置する。
下部アーム先端34には、照射部11及び、画像データ取得部21を上向きに取り付ける。
The image discrimination device 1, which is a foreign matter discrimination unit used in the foreign matter detection device 31, has an irradiation unit 11 and an image data acquisition unit 21. The image data acquisition unit 21 includes a camera.
The irradiation unit 11 includes a top surface irradiation unit 111 and a bottom surface irradiation unit 112. The irradiation unit 11 is composed of an LED light.
The irradiation unit 11 includes green light (495-570 nm), red light (620-750 nm), near infrared rays (0.7-2.5 μm), orange light, orange light (590-620 nm), and yellow light (570-590 nm). It is capable of emitting nm), purple light (380-450 nm), blue light (450-495 nm), and infrared light (10-400 nm).
The image data acquisition unit 21 and the irradiation unit 11 including the camera are installed downward on the tip of the upper arm 33.
The irradiation unit 11 and the image data acquisition unit 21 are attached to the lower arm tip 34 upward.

上部アーム33は、支柱35に沿って図28乃至図35図中上下方向に移動可能であるため、画像データ取得部21、照射部11の位置調整が可能である。図29、図30で、コ字状に設けた、上部アーム33と下部アーム34の間に、被検査物(撮影対象物)Wを載置したコンベア41を設置する。上部アーム33、下部アーム34に取り付けたLEDで、被検査物(撮影対象物)Wを照射する。上部アーム33、下部アーム34に取り付けた画像データ取得部21で、被検査物(撮影対象物)Wを撮影する。 Since the upper arm 33 can be moved in the vertical direction in FIGS. 28 to 35 along the support column 35, the positions of the image data acquisition unit 21 and the irradiation unit 11 can be adjusted. In FIGS. 29 and 30, a conveyor 41 on which the object to be inspected (photographed object) W is placed is installed between the upper arm 33 and the lower arm 34, which are provided in a U shape. The LED attached to the upper arm 33 and the lower arm 34 irradiates the object to be inspected (photographed object) W. The image data acquisition unit 21 attached to the upper arm 33 and the lower arm 34 photographs the object to be inspected (photographed object) W.

上面照射部111は、コンベア41の上面から被検査物(撮影対象物)Wに光を照射するとともにコンベア41に対する照射角度が変更可能である。
下面照射部112は、コンベア41の下面から被検査物(撮影対象物)Wに光を照射するとともにコンベア41に対する照射角度が変更可能である。
The top surface irradiation unit 111 irradiates the object to be inspected (photographed object) W with light from the upper surface of the conveyor 41, and the irradiation angle with respect to the conveyor 41 can be changed.
The bottom surface irradiation unit 112 irradiates the object to be inspected (photographed object) W with light from the bottom surface of the conveyor 41, and the irradiation angle with respect to the conveyor 41 can be changed.

図28に図示するように、上面照射部111の左右LEDライトと、下面照射部112の左右LEDライトは、エックス状にクロスに対抗させて設置する。向かって左上の上面照射部111のLEDライトと、下面照射部112右下のLEDライトを向い合せる。向かって右上のLEDライトと、左下のLEDライトを向い合せ、焦点に被検査物(撮影対象物)Wを置く。
異物の検出装置31は、下部に取り付けたキャスタ32により移動可能であるため、LEDライトは、コンベア41に対して前方及び後方に移動可能である。
As shown in FIG. 28, the left and right LED lights of the upper surface irradiation unit 111 and the left and right LED lights of the lower surface irradiation unit 112 are installed so as to oppose the cloth in an X shape. The LED light of the upper left irradiation unit 111 and the LED light of the lower right of the lower surface irradiation unit 112 face each other. Face the LED light on the upper right and the LED light on the lower left, and place the object to be inspected (photographed object) W at the focal point.
Since the foreign matter detecting device 31 can be moved by the caster 32 attached to the lower part, the LED light can be moved forward and backward with respect to the conveyor 41.

モータ(図示せず)で被検査物(撮影対象物)Wを移動させる。モータの駆動を停止してコンベア41を停止して、被検査物(撮影対象物)Wを画像データ取得部21で停止し、画像データ取得部21で撮影する。
異物の検出装置31は、コイルを用いた電磁誘導により、モータその他の駆動に電力を供給しコンベア41を駆動している。工場内は、濡れている箇所があるため、ワイヤレス給電により無接点で電流を供給している。
異物の検出装置31は、ロボットを取り付けることも可能である。図29に図示する63は、ロボット接続用端子である。ロボット接続用端子63は、ロボットを接続するときの端子となる。
The object to be inspected (object to be photographed) W is moved by a motor (not shown). The drive of the motor is stopped, the conveyor 41 is stopped, the object to be inspected (object to be photographed) W is stopped by the image data acquisition unit 21, and the image data acquisition unit 21 takes an image.
The foreign matter detecting device 31 drives the conveyor 41 by supplying electric power to drive the motor and the like by electromagnetic induction using a coil. Since there are wet areas in the factory, current is supplied without contact by wireless power supply.
The foreign matter detection device 31 can also be equipped with a robot. Reference numeral 63 illustrated in FIG. 29 is a robot connection terminal. The robot connection terminal 63 serves as a terminal for connecting the robot.

61、62は、モニターである。テレビ画面からなるタッチパネルである。モニター61は、上面照射部111と下面照射部112の取付け側の正面であって、上面照射部111先端側上部に取り付ける。モニター62は、背面側の支柱35後部に斜め上を向けて取り付ける。
71は、制御盤である。制御盤71は、異物の検出装置31の電気系統の制御をする。
61 and 62 are monitors. It is a touch panel consisting of a TV screen. The monitor 61 is attached to the front surface of the upper surface irradiation unit 111 and the lower surface irradiation unit 112 on the attachment side, and is attached to the upper end side of the upper surface irradiation unit 111. The monitor 62 is attached to the rear portion of the support column 35 on the back side so as to face diagonally upward.
71 is a control panel. The control panel 71 controls the electric system of the foreign matter detecting device 31.

以下、本発明の異物の検出装置31に使用する異物の判別部である画像判別装置1の実施例について、第1実施例乃至第12実施例について、図1〜図27に基づき説明する。
第1実施例
異物の検出装置31、異物の検出方法、ならびに異物の検出プログラムの実施の形態について、説明する。
異物の検出装置31に使用する異物の判別部である画像判別装置1は、照射部11、画像データ取得部21の他、操作入力情報取得部12、区分分割部である画像データ分割処理部13、画像識別処理部14、識別結果変換処理部15、画像処理部16、出力処理部17、および、記憶部18を有する。
Hereinafter, examples of the image discrimination device 1 which is a foreign matter discrimination unit used in the foreign matter detection device 31 of the present invention will be described with reference to FIGS. 1 to 27 with respect to Examples 1 to 12.
First Example A foreign matter detection device 31, a foreign matter detection method, and an embodiment of a foreign matter detection program will be described.
The image discrimination device 1, which is a foreign matter discrimination unit used in the foreign matter detection device 31, includes an irradiation unit 11, an image data acquisition unit 21, an operation input information acquisition unit 12, and an image data division processing unit 13 which is a division division unit. , An image identification processing unit 14, an identification result conversion processing unit 15, an image processing unit 16, an output processing unit 17, and a storage unit 18.

照射部11は、第1実施例に係るこの実施の形態では、緑色野菜W、この実施例では、レタスでは、照射部11では同色同系色、近似した色の光であるLEDの緑色光(495-570 nm)を使用する。
なお、可視光の波長は以下とされる。
紫 380-450 nm
青 450-495 nm
緑 495-570 nm
黄 570-590 nm
橙 590-620 nm
赤 620-750 nm
赤外線光の波長は、以下とされる。
近赤外線は、波長がおよそ0.7 - 2.5 μm
中赤外線は、波長がおよそ2.5 - 4 μm
遠赤外線は、波長がおよそ4 - 1000 μm
紫外線は、10 - 400 nm
The irradiation unit 11 is the green vegetable W in this embodiment according to the first embodiment, and in this embodiment, in the lettuce, the irradiation unit 11 has the same color and similar color, and the LED green light (495) which is an approximate color. -570 nm) is used.
The wavelength of visible light is as follows.
Purple 380-450 nm
Blue 450-495 nm
Green 495-570 nm
Yellow 570-590 nm
Orange 590-620 nm
Red 620-750 nm
The wavelength of infrared light is as follows.
Near infrared has a wavelength of about 0.7-2.5 μm
Mid-infrared has a wavelength of approximately 2.5-4 μm
Far infrared rays have a wavelength of approximately 4-1000 μm.
Ultraviolet rays are 10-400 nm

緑色野菜、緑色果実としては、
モロヘイヤ、にら、さやいんげん、ささげ、藤豆、青梗菜(チンゲンサイ)、山椒(さんしょう)、枝豆、そら豆、ターツァイ、かぼす、ハーブ類、アボガド(アボカド)、アロエ、すだち、ライム、キウイ、すいか、メロン、ブロッコリー、つるむらさき、春菊、ほうれん草類、からし菜類、広島菜、壬生菜、セロリ、ふき、アーティチョーク、小松菜、きゅうり、レタス、サラダ菜、エンダイブ、オクラ、おかひじき、つる菜、えんどう、ピーマン、大阪白菜、クレソン、アスパラガス、あしたば、青じそ(大葉)、かぼちゃがある。
As green vegetables and green fruits,
Moroheiya, leek, green beans, sasage, wisteria beans, bok choy, sansho, edible beans, sora beans, tarzai, kabosu, herbs, avocado, aloe, sudachi, lime, kiwi, squid, Melon, broccoli, vine purple, spring chrysanthemum, spinach, mustard greens, Hiroshima greens, Japanese mustard greens, celery, wiping, artichoke, Japanese mustard spinach, cucumber, lettuce, salad greens, endive, okura, okahijiki, green beans There are Osaka Chinese cabbage, Japanese mustard, asparagus, tomorrow, green beans (large leaves), and pumpkin.

適正露出と露出過多
図1に図示するように、撮影対象物Wである、緑色野菜この実施例では、レタスには、抽出対象物である異物A、この実施例では昆虫Aがついている。
異物(本件では昆虫A)が付いた撮影対象物W(本件ではレタス)に撮影対象物色と同色乃至近似した光を照射する。レタスの場合は、緑色の光の領域(波長495-570 nm)を照射する。
レタスに、緑色光を照射するとともに、適正露出以上に露出を上げて撮影し、緑色光の反射光を取り入れ画像データを得て、画像データから異物を判別する異物の検出装置31、異物の検出方法、ならびに異物の検出プログラムからなる。
露出を上げると撮影対象物W(本実施例ではレタス)である背景は白っぽくなり、異物Aが見えやすくなる。
そこで、適正露出の画像を含め、適正露出以上に露出を上げた露出過多の画像等、異なる露出の画像を複数得る。
得られた複数の画像を基に、ディープラーニングの手法によることで、異物の発見が容易となる。
Appropriate exposure and overexposure As shown in FIG. 1, green vegetables, which are the objects to be photographed W In this example, lettuce has a foreign substance A, which is an extraction object, and insects A in this example.
The object W (lettuce in this case) with a foreign substance (insect A in this case) is irradiated with light of the same color as or similar to the color of the object to be photographed. For lettuce, irradiate the green light region (wavelength 495-570 nm).
The lettuce is irradiated with green light, and the exposure is raised above the proper exposure to take a picture. The reflected light of the green light is taken in to obtain image data, and the foreign matter detection device 31 for discriminating foreign matter from the image data, detection of foreign matter It consists of a method and a foreign matter detection program.
When the exposure is increased, the background of the object to be photographed W (lettuce in this embodiment) becomes whitish, and the foreign matter A becomes easy to see.
Therefore, a plurality of images having different exposures, such as an overexposed image in which the exposure is higher than the proper exposure, including an image having an appropriate exposure, are obtained.
By using a deep learning method based on the obtained plurality of images, it becomes easy to find foreign substances.

図6は、この発明の実施の形態である第1実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。
図7は、この発明の実施の形態である第1実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。
FIG. 6 is an image diagram taken by irradiating the lettuce of the first embodiment, which is the embodiment of the present invention, with green light which is visible light and taking an appropriate exposure.
FIG. 7 is an image diagram taken by irradiating the lettuce of the first embodiment, which is the embodiment of the present invention, with green light, which is visible light, to raise the exposure beyond the proper exposure.

第2実施例
図8は、この発明の実施の形態である第2実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。
図9、図10は、この発明の実施の形態である第2実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。
2nd Example FIG. 8 is an image diagram taken by irradiating the lettuce of the second embodiment, which is the embodiment of the present invention, with green light which is visible light and taking an appropriate exposure.
9 and 10 are images taken by irradiating the lettuce of the second embodiment, which is the embodiment of the present invention, with green light, which is visible light, to raise the exposure beyond the proper exposure.

第3実施例
図11は、この発明の実施の形態である第3実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。
図12、図13は、この発明の実施の形態である第3実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。
Third Example FIG. 11 is an image diagram taken by irradiating the lettuce of the third embodiment, which is the embodiment of the present invention, with green light which is visible light and taking an appropriate exposure.
12 and 13 are images taken by irradiating the lettuce of the third embodiment, which is the embodiment of the present invention, with green light, which is visible light, to raise the exposure beyond the proper exposure.

第4実施例
図14は、この発明の実施の形態である第4実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。
図15、図16は、この発明の実施の形態である第4実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。
Fourth Example FIG. 14 is an image diagram taken by irradiating the lettuce of the fourth embodiment, which is an embodiment of the present invention, with green light which is visible light and taking an appropriate exposure.
15 and 16 are images taken by irradiating the lettuce of the fourth embodiment, which is the embodiment of the present invention, with green light, which is visible light, to raise the exposure beyond the proper exposure.

第5実施例
図17は、この発明の実施の形態である第5実施例のレタスに、可視光である緑色光を照射適正露出で撮影した画像図である。
図18、図19は、この発明の実施の形態である第5実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。
Fifth Example FIG. 17 is an image diagram of lettuce of the fifth embodiment, which is an embodiment of the present invention, taken with green light which is visible light with proper irradiation exposure.
18 and 19 are images taken by irradiating the lettuce of the fifth embodiment, which is the embodiment of the present invention, with green light, which is visible light, to raise the exposure beyond the proper exposure.

第6実施例
図20は、この発明の実施の形態である第6実施例のレタスに、可視光である緑色光を照射し適正露出で撮影した画像図である。
図21、図22、図23、図24、図25、図26、図27は、この発明の実施の形態である第6実施例のレタスに、可視光である緑色光を照射し適正露出以上に露出を上げて撮影した画像図である。
6th Example FIG. 20 is an image diagram taken by irradiating the lettuce of the 6th embodiment, which is the embodiment of the present invention, with green light which is visible light and taking an appropriate exposure.
21, FIG. 22, FIG. 23, FIG. 24, FIG. 25, FIG. 26, and FIG. 27 show that the lettuce of the sixth embodiment according to the embodiment of the present invention is irradiated with green light which is visible light and is exposed more than appropriate. It is an image diagram taken with increased exposure.

第7実施例
第7実施例に係るこの実施の形態では、赤色野菜、赤色果物Wでは、照射部11では同色同系色、近似した色の光であるLEDの赤色光(620-750 nm)あるいは、近赤外線(0.7 - 2.5 μm)を使用する。
赤色野菜、赤色果物としては、にんじん、トマト、いちご、スイカ、トウガラシ、パプリカ、茗荷(みょうが)、ビーツ、りんご、さくらんぼ、桃(もも)、ルバーブ、赤ピーマンがある。
7th Example In this embodiment according to the 7th embodiment, in the red vegetable and the red fruit W, the irradiation unit 11 has the same color and the similar color, and the LED red light (620-750 nm) or the light of the similar color. , Use near infrared (0.7-2.5 μm).
Red vegetables and red fruits include carrots, tomatoes, strawberries, watermelons, peppers, paprika, Japanese ginger, beets, apples, cherries, peaches, rhubarb, and red peppers.

適正露出と露出過多
図1に図示するように、撮影対象物Wである、赤色野菜、赤色果物Wは、この実施例では、ニンジンには、異物A、この実施例では昆虫Aがついている。
異物(本件では昆虫A)が付いた撮影対象物W(本件ではニンジン)に撮影対象物色と同色乃至近似した光を照射する。ニンジンの場合は、赤色光(620-750 nm)あるいは、近赤外線(0.7 - 2.5 μm)を照射する。
適正露出以上に露出を上げて撮影し、赤色光または近赤外線光の反射光を取り入れ画像データを得て、画像データから異物を判別する異物の検出装置31、異物の検出方法、ならびに異物の検出プログラムからなる。
Appropriate exposure and overexposure As shown in FIG. 1, the imaged object W, the red vegetable and the red fruit W, has a foreign substance A attached to the carrot in this embodiment and an insect A attached to the carrot in this embodiment.
The object W (carrot in this case) with a foreign substance (insect A in this case) is irradiated with light of the same color as or similar to the color of the object to be photographed. In the case of carrots, irradiate with red light (620-750 nm) or near infrared rays (0.7-2.5 μm).
Taking a picture with an exposure higher than the appropriate exposure, taking in the reflected light of red light or near infrared light to obtain image data, a foreign matter detection device 31 that discriminates foreign matter from the image data, a foreign matter detection method, and foreign matter detection Consists of a program.

露出を上げると撮影対象物W(本件ではニンジン)である背景は白っぽくなり、異物が見えやすくなる。
そこで、適正露出の画像を含め、適正露出以上に露出を上げた露出過多の画像等、異なる露出の画像を複数得る。
得られた複数の画像を基に、ディープラーニングの手法によることで、異物の発見が容易となる。
When the exposure is increased, the background of the object W (carrot in this case) becomes whitish, making it easier to see foreign matter.
Therefore, a plurality of images having different exposures, such as an overexposed image in which the exposure is higher than the proper exposure, including an image having an appropriate exposure, are obtained.
By using a deep learning method based on the obtained plurality of images, it becomes easy to find foreign substances.

第8実施例
第8実施例に係るこの実施の形態では、照射部11は、この実施の形態では、オレンジ
色野菜、オレンジ色果実Wでは、照射部11では同色同系色、近似した色の光であるLEDのオレンジ色、橙色 光(590-620 nm)を使用する。
オレンジ色野菜、オレンジ色果実としては、かぼちゃ、にんじん、パパイヤ、柿、ゆず、マンゴー、あんず、オレンジ、びわがある。
Eighth Example In this embodiment according to the eighth embodiment, in this embodiment, the irradiation unit 11 is an orange vegetable, and in the orange fruit W, the irradiation unit 11 is a light of the same color and a similar color. Use the orange, orange light (590-620 nm) of the LED.
Orange vegetables and orange fruits include pumpkin, carrot, papaya, persimmon, yuzu, mango, anzu, orange, and loquat.

適正露出と露出過多
図1に図示するように、撮影対象物Wである、オレンジ色野菜、オレンジ色果実は、この実施例では、かぼちゃには、異物A、この実施例では昆虫Aがついている。
異物(本件では昆虫A)が付いた撮影対象物W(本件ではかぼちゃ)に撮影対象物色と同色乃至近似した光を照射する。かぼちゃの場合は、オレンジ色、橙色 光(590-620 nm)の光の領域を照射する。
Appropriate exposure and overexposure As shown in FIG. 1, the orange vegetables and orange fruits, which are the objects W to be photographed, have a foreign substance A attached to the pumpkin and an insect A attached to the pumpkin in this embodiment. ..
The object W (pumpkin in this case) with a foreign substance (insect A in this case) is irradiated with light of the same color as or similar to the color of the object to be photographed. In the case of pumpkin, irradiate the area of orange and orange light (590-620 nm).

上に露出を上げて撮影し、オレンジ色橙色 光(590-620 nm)の反射光を取り入れ画像データを得て、画像データから異物を判別する異物の検出装置31、異物の検出方法、ならびに異物の検出プログラムからなる。
露出を上げると撮影対象物W(本件ではかぼちゃ)である背景は白っぽくなり、異物が見えやすくなる。
そこで、適正露出の画像を含め、適正露出以上に露出を上げた露出過多の画像等、異なる露出の画像を複数得る。
得られた複数の画像を基に、ディープラーニングの手法によることで、異物の発見が容易となる。
Taking a picture with the exposure raised upward, the reflected light of orange-orange light (590-620 nm) is taken in to obtain image data, and the foreign matter detection device 31 that discriminates foreign matter from the image data, the foreign matter detection method, and the foreign matter Consists of a detection program.
When the exposure is increased, the background of the object W (pumpkin in this case) becomes whitish, making it easier to see foreign matter.
Therefore, a plurality of images having different exposures, such as an overexposed image in which the exposure is higher than the proper exposure, including an image having an appropriate exposure, are obtained.
By using a deep learning method based on the obtained plurality of images, it becomes easy to find foreign substances.

第9実施例
第9実施例に係るこの実施の形態では、照射部11は、この実施の形態では、黄色野菜、黄色果実Wでは、照射部11では同色同系色、近似した色の光であるLEDの黄色光(570-590 nm)を使用する。
黄色野菜、黄色果実としては、かぼちゃ、たまねぎ、レモン、きんかん、梨(ナシ)、パイナップル、グレープフルーツ、バナナ、とうもろこしがある。
9th Example In this embodiment according to the 9th embodiment, in this embodiment, the irradiation unit 11 is a yellow vegetable, and in the yellow fruit W, the irradiation unit 11 is a light of the same color and a similar color. Use LED yellow light (570-590 nm).
Yellow vegetables and yellow fruits include pumpkin, onions, lemons, kumquats, pears, pineapples, grapefruits, bananas, and corn.

適正露出と露出過多
図1に図示するように、撮影対象物Wである、黄色野菜、黄色果実は、この実施例では、たまねぎには、異物A、この実施例では昆虫Aがついている。
異物(本件では昆虫A)が付いた撮影対象物W(本件ではたまねぎ)に撮影対象物色と同色乃至近似した光を照射する。たまねぎの場合は、黄色光(570-590 nm)の光の領域を照射する。
たまねぎに、黄色光(570-590 nm)を照射するとともに、適正露出以上に露出を上げて撮影し、
黄色光(570-590 nm)の反射光を取り入れ画像データを得て、画像データから異物を判別する異物の検出装置31、異物の検出方法、ならびに異物の検出プログラムからなる。
露出を上げると撮影対象物W(本件ではたまねぎ)である背景は白っぽくなり、異物が見えやすくなる。
そこで、適正露出の画像を含め、適正露出以上に露出を上げた露出過多の画像等、異なる露出の画像を複数得る。
得られた複数の画像を基に、ディープラーニングの手法によることで、異物の発見が容易となる。
Appropriate exposure and overexposure As shown in FIG. 1, the yellow vegetables and yellow fruits, which are the objects W to be photographed, have a foreign substance A attached to the onion and an insect A attached to the onion in this example.
The object W (onion in this case) with a foreign substance (insect A in this case) is irradiated with light of the same color as or similar to the color of the object to be photographed. For onions, illuminate the area of yellow light (570-590 nm).
Irradiate the onion with yellow light (570-590 nm) and raise the exposure above the proper exposure.
It consists of a foreign matter detection device 31 that takes in reflected light of yellow light (570-590 nm), obtains image data, and discriminates foreign matter from the image data, a foreign matter detection method, and a foreign matter detection program.
When the exposure is increased, the background of the object W (onion in this case) becomes whitish, making it easier to see foreign matter.
Therefore, a plurality of images having different exposures, such as an overexposed image in which the exposure is higher than the proper exposure, including an image having an appropriate exposure, are obtained.
By using a deep learning method based on the obtained plurality of images, it becomes easy to find foreign substances.

第10実施例
第10実施例に係るこの実施の形態では、照射部11は、この実施の形態では、紫色野菜、紫色果実Wでは、照射部11では同色同系色、近似した色の光であるLEDの紫色光(380-450 nm)を使用する。
紫色野菜、紫色果実としては、ブルーベリー、なす、ベリー類、ぶどうがある。
10th Example In this embodiment according to the 10th embodiment, the irradiation unit 11 is a purple vegetable in this embodiment, and in the purple fruit W, the irradiation unit 11 is a light of the same color and a similar color. Use the purple light of the LED (380-450 nm).
Purple vegetables and purple fruits include blueberries, eggplants, berries, and grapes.

適正露出と露出過多
図1に図示するように、撮影対象物Wである、紫色野菜、紫色果実は、この実施例では、なすには、異物A、この実施例では昆虫Aがついている。
異物(本件では昆虫A)が付いた撮影対象物W(本件ではなす)に撮影対象物色と同色乃至近似した光を照射する。なすの場合は、紫色光(380-450 nm)の光の領域を照射する。
なすに、紫色光(380-450 nm)を照射するとともに、適正露出以上に露出を上げて撮影し、
紫色光(380-450 nm)の反射光を取り入れ画像データを得て、画像データから異物を判別する異物の検出装置31、異物の検出方法、ならびに異物の検出プログラムからなる。
露出を上げると撮影対象物W(本件ではなす)である背景は白っぽくなり、異物が見えやすくなる。
そこで、適正露出の画像を含め、適正露出以上に露出を上げた露出過多の画像等、異なる露出の画像を複数得る。
得られた複数の画像を基に、ディープラーニングの手法によることで、異物の発見が容易となる。
Appropriate exposure and overexposure As shown in FIG. 1, the purple vegetables and purple fruits, which are the objects to be photographed W, have a foreign substance A attached to the eggplant in this example and an insect A attached to the eggplant in this example.
The imaged object W (eggplant in this case) with a foreign substance (insect A in this case) is irradiated with light of the same color as or similar to the color of the object to be photographed. In the case of eggplant, irradiate the area of purple light (380-450 nm).
In the end, irradiate purple light (380-450 nm) and raise the exposure above the proper exposure to shoot.
It consists of a foreign matter detection device 31 that takes in reflected light of purple light (380-450 nm), obtains image data, and discriminates foreign matter from the image data, a foreign matter detection method, and a foreign matter detection program.
When the exposure is increased, the background of the object to be photographed W (in this case) becomes whitish, and foreign matter becomes easy to see.
Therefore, a plurality of images having different exposures, such as an overexposed image in which the exposure is higher than the proper exposure, including an image having an appropriate exposure, are obtained.
By using a deep learning method based on the obtained plurality of images, it becomes easy to find foreign substances.

第11実施例
第11実施例に係るこの実施の形態では、照射部11は、この実施の形態では、白色野菜、白色果実Wでは、照射部11ではLEDの紫色光(380-450 nm)あるいは、青色光(450-495 nm)あるいは、紫外光(10 - 400 nm)を使用する。
白色野菜、白色果実としては、大根、キャベツ、わさび、ねぎ、にんにく、たまねぎ、セロリアック(セロリラブ)、かぶ、れんこん、ゆり根、もやし、かいわれ菜、うど、たけのこ、白菜、チコリ(アンディーブ)がある。
Eleventh Example In this embodiment according to the eleventh embodiment, in this embodiment, the irradiation unit 11 is a white vegetable, and in the white fruit W, the irradiation unit 11 is an LED purple light (380-450 nm) or , Use blue light (450-495 nm) or ultraviolet light (10-400 nm).
White vegetables and white fruits include radish, cabbage, wasabi, green onion, garlic, onion, celeriac (celeriac), turnip, lotus root, lily root, sprouts, radish sprouts, udon, bamboo shoots, Chinese cabbage, and chicory (andive).

適正露出と露出過多
図1に図示するように、撮影対象物Wである、白色野菜、白色果実は、この実施例では、大根には、異物A、この実施例では昆虫Aがついている。
異物(本件では昆虫A)が付いた撮影対象物W(本件では大根)に大根の場合は、紫色光(380-450 nm)あるいは、青色光(450-495 nm)あるいは、紫外光(10 - 400 nm)の光の領域を照射する。
大根に、紫色光(380-450 nm)あるいは、青色光(450-495 nm)あるいは、紫外光(10 - 400 nm)を照射するとともに、適正露出以上に露出を上げて撮影し、紫色光(380-450 nm)等の反射光を取り入れ画像データを得て、画像データから異物を判別する異物の検出装置31、異物の検出方法、ならびに異物の検出プログラムからなる。
露出を上げると撮影対象物W(本件では大根)である背景は白っぽくなり、異物が見えやすくなる。
そこで、適正露出の画像を含め、適正露出以上に露出を上げた露出過多の画像等、異なる露出の画像を複数得る。
得られた複数の画像を基に、ディープラーニングの手法によることで、異物の発見が容易となる。
Appropriate exposure and overexposure As shown in FIG. 1, the white vegetables and white fruits, which are the objects W to be photographed, have a foreign substance A attached to the radish and an insect A attached to the radish in this example.
In the case of a radish on the object W (radish in this case) with a foreign substance (insect A in this case), purple light (380-450 nm), blue light (450-495 nm), or ultraviolet light (10-). Irradiate a region of light (400 nm).
The radish is irradiated with purple light (380-450 nm), blue light (450-495 nm), or ultraviolet light (10-400 nm), and the exposure is raised above the appropriate exposure. It consists of a foreign matter detection device 31 that takes in reflected light such as 380-450 nm) to obtain image data and discriminates foreign matter from the image data, a foreign matter detection method, and a foreign matter detection program.
When the exposure is increased, the background of the object W (radish in this case) becomes whitish, making it easier to see foreign matter.
Therefore, a plurality of images having different exposures, such as an overexposed image in which the exposure is higher than the proper exposure, including an image having an appropriate exposure, are obtained.
By using a deep learning method based on the obtained plurality of images, it becomes easy to find foreign substances.

第12実施例
第12実施例では、異物を含んでいる撮影対象物(被写体)に、紫外光から赤外線光まで波長の異なる例えばLED照明の光を連続変化させて照射する(光の周波数をスィープして)、とともに、適正露出以上に露出を上げて撮影した場合、画像で最も被写体が白く撮影されているものに使用された光の周波数が異物検出に適した光の周波数といえる。
この光の周波数を求めるため、撮影対象物(被写体)に紫外光から赤外線光までの波長の異なる例えばLED照明の光を連続変化させて撮影し、撮影したそれぞれの画像で白く撮影されている面積をコンピュータで演算、計算することによって、それぞれの画像を比較する。得られた画像で最も被写体が白く撮影されているものに使用された光の周波数が異物検出に適した光の周波数と判断し、異物検出に必要な光の周波数を特定し、その光の周波数を使用する。
12th Example In the 12th Example, an object (subject) to be photographed containing a foreign substance is irradiated with continuously changing light of, for example, LED illumination having different wavelengths from ultraviolet light to infrared light (sweep of light frequency). In addition, when the image is taken with an exposure higher than the appropriate exposure, the frequency of the light used for the whitest subject in the image can be said to be the frequency of the light suitable for detecting foreign matter.
In order to obtain the frequency of this light, the area of the object (subject) to be photographed is photographed by continuously changing the light of LED illumination having different wavelengths from ultraviolet light to infrared light, and each photographed image is photographed in white. Is calculated and calculated by a computer to compare each image. The frequency of the light used for the whitest subject in the obtained image is determined to be the frequency of the light suitable for detecting foreign matter, the frequency of the light required for detecting the foreign matter is specified, and the frequency of the light is specified. To use.

適正露出と露出過多
図1に図示するように、撮影対象物Wである、緑色野菜は、この実施例では、レタスには、抽出対象物である異物A、この実施例では昆虫Aがついている。
異物(本件では昆虫A)が付いた撮影対象物W(本件ではレタス)に、適正露出以上に露出を上げて撮影した場合、画像で最も被写体が白く撮影されているものに使用された光の周波数の光を照射する。レタスの場合は、緑色の光の領域(波長495-570 nm)を照射する。
レタスに、緑色光を照射するとともに、適正露出以上に露出を上げて撮影し、緑色光の反射光を取り入れ画像データを得て、画像データから異物を判別する異物の検出装置31、異物の検出方法、ならびに異物の検出プログラムからなる。
露出を上げると撮影対象物W(本件ではレタス)である背景は白っぽくなり、異物Aが見えやすくなる。
そこで、適正露出の画像を含め、適正露出以上に露出を上げた露出過多の画像等、異なる露出の画像を複数得る。
得られた複数の画像を基に、ディープラーニングの手法によることで、異物の発見が容易となる。
Appropriate exposure and overexposure As shown in FIG. 1, the green vegetable, which is the object W to be photographed, has a foreign substance A, which is an extraction object, attached to the lettuce in this example, and an insect A, which is an extraction object in this example. ..
When shooting an object W (lettuce in this case) with a foreign object (insect A in this case) with an exposure higher than the appropriate exposure, the light used for the whitest subject in the image. Irradiate light of frequency. For lettuce, irradiate the green light region (wavelength 495-570 nm).
The lettuce is irradiated with green light, and the exposure is raised above the proper exposure to take a picture. The reflected light of the green light is taken in to obtain image data, and the foreign matter detection device 31 for discriminating foreign matter from the image data, detection of foreign matter It consists of a method and a foreign matter detection program.
When the exposure is increased, the background of the object W (lettuce in this case) becomes whitish, and the foreign matter A becomes easy to see.
Therefore, a plurality of images having different exposures, such as an overexposed image in which the exposure is higher than the proper exposure, including an image having an appropriate exposure, are obtained.
By using a deep learning method based on the obtained plurality of images, it becomes easy to find foreign substances.

画像データ取得部21は、撮影部であって、照射部11からの反射光を受光する。
画像データ取得部21は、例えば、デジタルスチルカメラ、ラインセンサカメラ等により第1実施例乃至第12実施例で撮像された、検査対象物の画像データを取得し、画像データ分割処理部13に供給する。
図6乃至図27に図示する第1実施例乃至第12実施例で撮像された、異なる露出の画
像データで受光された画像を重ね合わせた画像を得る。
The image data acquisition unit 21 is an imaging unit and receives the reflected light from the irradiation unit 11.
The image data acquisition unit 21 acquires image data of an inspection object captured in the first to twelfth embodiments by, for example, a digital still camera, a line sensor camera, or the like, and supplies the image data to the image data division processing unit 13. To do.
An image obtained by superimposing the images received by the image data of different exposures taken in the first to twelfth embodiments shown in FIGS. 6 to 27 is obtained.

昆虫検出の仕方
第1実施例乃至第12実施例では、昆虫Aは、露出を変化させることで、白っぽい撮影対象物Wである背景に黒い点として検出されるため色と形状をAIに学習させ形状によって識別させることが出来る(図6乃至図27参照)。
How to detect insects In the first to twelfth examples, insect A is detected as a black dot on the background, which is a whitish object W, by changing the exposure, so AI learns the color and shape. It can be identified by its shape (see FIGS. 6 to 27).

第1実施例乃至第12実施例で、二値化は、不要である。
ディープラーニングを用いたAIに学習させる方法をとらないと色と形状を用いた異物である昆虫Aの検出が困難であるので必ずディープラーニングを用いたAIを使用する必要がある。
人工知能 (AI) の一部であるディープラーニングは、人間と同じように、コンピューターがrawデータから新しい概念を習得できるようにするものである。ディープラーニングシステムでは、特定のイメージをそれぞれ数千通り確認すると、その違いを特定できる。
In the first to twelfth embodiments, binarization is unnecessary.
Unless a method of learning by AI using deep learning is taken, it is difficult to detect insect A, which is a foreign substance using color and shape, so it is necessary to always use AI using deep learning.
Deep learning, which is part of artificial intelligence (AI), allows computers, like humans, to learn new concepts from raw data. In a deep learning system, you can identify the difference by checking thousands of specific images.

得られた画像を重ね合わせ、AIで判断する。
異なる露出で受光した画像を得て、重ね合わせた画像を得る。
The obtained images are overlaid and judged by AI.
Images received at different exposures are obtained, and superimposed images are obtained.

操作入力情報取得部12は、入力部2から入力される、ユーザの操作入力を取得し、画像データ分割処理部13、画像識別処理部14、識別結果変換処理部15、画像処理部16、および、出力処理部17の各部に、ユーザの操作入力に対応する情報を供給する。 The operation input information acquisition unit 12 acquires the user's operation input input from the input unit 2, and has an image data division processing unit 13, an image identification processing unit 14, an identification result conversion processing unit 15, an image processing unit 16, and an image processing unit 16. , Information corresponding to the user's operation input is supplied to each unit of the output processing unit 17.

画像データ分割処理部13は、画像データ取得部21から供給された紫色光で受光した画像および青色光で受光した画像、赤外線光で受光された画像を重ね合わせた画像についての画像データを区分分割し、所定の大きさの正方形のセルとして、画像識別処理部14、または、画像処理部16に供給する。
画像データ分割処理部13により分割されるセルの大きさは、ユーザにより指定可能である。画像データ分割処理部13は、区分分割部に対応する。また、セルは、区分分割部により分割された区分に対応する。なお、セルは、画像データ分割処理部13により分割された区分に対応する所定の大きさの画像領域であり、縦横同画素数数からなる画素の正方形の領域で構成しても、縦横のサイズの異なる長方形の領域で構成されるようにしてもよい。
The image data division processing unit 13 divides and divides image data of an image received by purple light supplied from the image data acquisition unit 21, an image received by blue light, and an image obtained by superimposing an image received by infrared light. Then, it is supplied to the image identification processing unit 14 or the image processing unit 16 as a square cell having a predetermined size.
The size of the cell to be divided by the image data division processing unit 13 can be specified by the user. The image data division processing unit 13 corresponds to the division division unit. In addition, the cell corresponds to the division divided by the division division portion. The cell is an image area having a predetermined size corresponding to the division divided by the image data division processing unit 13, and even if it is composed of a square area of pixels having the same number of pixels in the vertical and horizontal directions, the cell has a vertical and horizontal size. It may be composed of different rectangular areas.

画像識別処理部14は、ディープラーニング(Deep learning)の手法を用いた抽出対象物の学習結果を有しており、供給された画像データから抽出対象物の特徴量を発見する。例えば、異なる露出で昆虫Aは黒く映る画像から、ディープラーニングの手法を用いて昆虫Aを見分ける特徴量の学習を行った画像識別処理部14は、供給された画像データから抽出対象物である昆虫Aを識別することが可能である。 The image identification processing unit 14 has a learning result of the extraction target object using the technique of deep learning, and discovers the feature amount of the extraction target object from the supplied image data. For example, the image identification processing unit 14, which has learned the feature amount for distinguishing insect A from images in which insect A appears black at different exposures by using a deep learning method, is an insect to be extracted from the supplied image data. It is possible to identify A.

ディープラーニングは、人間の脳の神経細胞のネットワーク(ニューラルネットワーク)を模倣したものであり、ニューラルネットワーク(多層ネットワーク)の層を深くすることによって、画像や音声などに含まれる特徴量を学習結果に基づいて発見することが可能な情報処理技術である。
従来の、画像や音声等の認識・識別技術では、ユーザが特徴量を設定し、その後、その特徴量を基に分類アルゴリズムにかけて、抽出対象物が分類されていたが、ディープラーニングを用いて、画像識別処理部14に機械学習を行わせることにより、ユーザによる特徴量の設定を必要とすることなく、抽出対象物を抽出することが可能である。画像識別処理部14は、画像データ分割処理部13、または、画像処理部16から供給された画像データを構成するそれぞれのセルが抽出対象物である確率を算出し、識別結果変換処理部15に供給する。画像識別処理部14は、画像識別部に対応する。
Deep learning imitates the network of nerve cells in the human brain (neural network), and by deepening the layer of the neural network (multi-layer network), the features contained in images and sounds are used as learning results. It is an information processing technology that can be discovered based on it.
In the conventional recognition / identification technology for images, sounds, etc., the user sets the feature amount, and then the extraction target is classified by the classification algorithm based on the feature amount. However, deep learning is used. By causing the image identification processing unit 14 to perform machine learning, it is possible to extract the extraction target without requiring the user to set the feature amount. The image identification processing unit 14 calculates the probability that each cell constituting the image data supplied from the image data division processing unit 13 or the image processing unit 16 is an extraction target, and causes the identification result conversion processing unit 15 to calculate the probability. Supply. The image identification processing unit 14 corresponds to the image identification unit.

識別結果変換処理部15は、画像識別処理部14から供給された、画像データを構成するそれぞれのセルが抽出対象物である確率を後述する方法によって画素値に変換し、各セルをその変換された画素値に応じた画像データを生成し、画像処理部16に供給する。識別結果変換処理部15は、例えば、トーンカーブ(または、ルックアップテーブル)を参照し、それぞれのセルが対象物である確率(0%から100%)を、0から255の値を有する画素値に変換する。例えば、抽出対象物であるセルの確率が100%であった場合にはトーンカーブに基づいて画素値を255に変換する。識別結果変換処理部15は、識別結果変換部に対応する。 The identification result conversion processing unit 15 converts the probability that each cell constituting the image data supplied from the image identification processing unit 14 is an extraction target into a pixel value by a method described later, and converts each cell into a pixel value. Image data corresponding to the pixel value is generated and supplied to the image processing unit 16. The identification result conversion processing unit 15 refers to, for example, a tone curve (or a lookup table), and determines the probability (0% to 100%) that each cell is an object, and a pixel value having a value of 0 to 255. Convert to. For example, when the probability of the cell as the extraction target is 100%, the pixel value is converted to 255 based on the tone curve. The identification result conversion processing unit 15 corresponds to the identification result conversion unit.

画像処理部16は、識別結果変換処理部15から供給された、各セルの画素値が抽出対象物である確率を示す画像データに対して、または、画像データ分割処理部13から供給された、区分分割されたセル画像データに対して、例えば、閾値などを用いたノイズ除去、昆虫Aを見分ける処理者の知見、膨張処理、クロージング処理、骨格線抽出処理などを反映した画像処理を実行し、処理後の画像データを、画像識別処理部14、または、出力処理部17に供給する。画像処理部16は、画像処理部に対応する。 The image processing unit 16 is supplied from the identification result conversion processing unit 15 to the image data indicating the probability that the pixel value of each cell is the extraction target, or is supplied from the image data division processing unit 13. For the divided cell image data, for example, image processing that reflects noise removal using a threshold, the knowledge of the processor that distinguishes insect A, expansion processing, closing processing, skeleton line extraction processing, etc. is executed. The processed image data is supplied to the image identification processing unit 14 or the output processing unit 17. The image processing unit 16 corresponds to the image processing unit.

ここで、画像データ分割処理部13によりセルに分割された画像データは、画像識別処理部14および画像処理部16のうちのどちらで先に処理をされるものであっても構わない。また、画像データ分割処理部13によりセルに分割された画像データは、画像識別処理部14または画像処理部16において、複数回処理されるものであっても構わない。画像判別装置1においては、入力部2により入力されたユーザの操作入力に基づいて、入力される画像データおよび抽出対象物の特徴に適するように、画像識別処理部14および画像処理部16における処理の順序および回数を設定することが可能である。 Here, the image data divided into cells by the image data division processing unit 13 may be processed first by either the image identification processing unit 14 or the image processing unit 16. Further, the image data divided into cells by the image data division processing unit 13 may be processed a plurality of times by the image identification processing unit 14 or the image processing unit 16. In the image discrimination device 1, the processing in the image identification processing unit 14 and the image processing unit 16 is performed so as to be suitable for the characteristics of the input image data and the extraction target object based on the user's operation input input by the input unit 2. It is possible to set the order and number of times.

出力処理部17は、画像処理部16から供給された処理後の画像データを、出力部3に供給して出力させたり、記憶部18に供給して記憶させる。また、出力処理部17は、記憶部18に記憶されている処理後の画像データを読み出し、出力部3に供給して出力させる。
記憶部18は、内蔵された記憶媒体、または、装着されたリムーバブル記憶媒体に、出力処理部17から供給された処理後の画像データを記憶する。
The output processing unit 17 supplies the processed image data supplied from the image processing unit 16 to the output unit 3 for output, or supplies the storage unit 18 for storage. Further, the output processing unit 17 reads out the processed image data stored in the storage unit 18 and supplies the image data to the output unit 3 for output.
The storage unit 18 stores the processed image data supplied from the output processing unit 17 in the built-in storage medium or the removable storage medium mounted on the storage medium.

画像判別装置1においては、画像識別処理部14において識別された、画像データを構成するそれぞれのセルが抽出対象物である確率を、識別結果変換処理部15において、画像データに変換し、その画像データを処理することにより、抽出対象物を検出することができる。したがって、異なる時期に撮影した画像の全体的な輝度等が異なる場合であっても、解析結果はその影響を受けることがなく、同部分の経時変化を比較する場合に用いて好適である。 In the image discrimination apparatus 1, the identification result conversion processing unit 15 converts the probability that each cell constituting the image data identified by the image identification processing unit 14 is an extraction target into image data, and the image thereof. By processing the data, the extraction target can be detected. Therefore, even if the overall brightness and the like of the images taken at different times are different, the analysis result is not affected by the difference, and it is suitable for use in comparing the changes with time of the same portion.

次に、図3のフローチャートを参照して、画像判別装置1が実行する処理の一例として、野菜に付着した昆虫Aの多くの画像から、ディープラーニングの手法を用いた昆虫Sが付着した野菜の特徴量の学習を行った画像識別処理部14を備える画像判別装置1が実行する画像解析処理1について説明する。 Next, referring to the flowchart of FIG. 3, as an example of the processing executed by the image discrimination apparatus 1, from many images of the insect A attached to the vegetables, the vegetables to which the insect S attached using the deep learning method is attached. The image analysis process 1 executed by the image discrimination apparatus 1 including the image identification processing unit 14 that has learned the feature amount will be described.

ステップS1において、画像データ取得部21は、解析する対象となる画像データを取得し、画像データ分割処理部13に供給する。 In step S1, the image data acquisition unit 21 acquires the image data to be analyzed and supplies it to the image data division processing unit 13.

ステップS2において、画像データ分割処理部13は、解析する画像データを区分分割し、画像識別処理部14に供給する。区分分割された1セルの大きさは、解析する画像データの種類や抽出対象物によってユーザが設定可能であってもよい。1つのセルは、解析する画像データを、例えば、縦64画素×横64画素のように正方形で構成されるようにしてもよいし、縦横のサイズの異なる長方形で構成されるようにしてもよい。また、1つのセルは、昆虫Aの1cm四方を1セルにしてもよいし、5cm四方を1セルにしてもよい。単位画素あたりの画像解像度を自由に設定することが可能である。 In step S2, the image data division processing unit 13 divides the image data to be analyzed and supplies it to the image identification processing unit 14. The size of the divided cell may be set by the user depending on the type of image data to be analyzed and the extraction target. The image data to be analyzed may be composed of squares such as 64 pixels vertically and 64 pixels horizontally, or may be composed of rectangles having different vertical and horizontal sizes in one cell. .. Further, one cell may be 1 cm square of insect A as 1 cell or 5 cm square as 1 cell. It is possible to freely set the image resolution per unit pixel.

ステップS3において、図4を用いて後述する画像識別処理が実行される。 In step S3, the image identification process described later is executed using FIG.

ステップS4において、識別結果変換処理部15は、画像識別処理による識別結果、すなわち、画像識別処理部14により算出された、それぞれのセルが抽出対象物である確率を、例えば、トーンカーブに基づいて、画素値に変換し、画像処理部16に供給する。 In step S4, the identification result conversion processing unit 15 determines the identification result by the image identification processing, that is, the probability that each cell is an extraction target calculated by the image identification processing unit 14, based on, for example, a tone curve. , Converted to pixel values and supplied to the image processing unit 16.

ステップS5において、図5を用いて後述する従来型画像処理1が実行される。 In step S5, the conventional image processing 1 described later is executed with reference to FIG.

ステップS6において、出力処理部17は、画像処理部16から供給された処理後の画像解析結果を記憶部18に供給する。記憶部18は、供給された画像解析結果を記憶する。また、出力処理部17は、画像処理部16から供給された処理後の画像解析結果を出力部3に供給して出力させ、処理が終了される。 In step S6, the output processing unit 17 supplies the processed image analysis result supplied from the image processing unit 16 to the storage unit 18. The storage unit 18 stores the supplied image analysis result. Further, the output processing unit 17 supplies the processed image analysis result supplied from the image processing unit 16 to the output unit 3 for output, and the processing is completed.

このような処理により、画像データを構成するそれぞれのセルが抽出対象物である確率が、画像データに変換され、その画像データを用いて、抽出対象物が検出されるので、画像の全体的な輝度等が異なる場合であっても、解析結果はその影響を受けることがない。
また、このようにして得られた対象物の抽出結果には、例えば、昆虫Aと紛らわしい部分が昆虫Aとともに抽出されてしまうことがなく、目視の確認に近い解析結果を得ることが可能となる。
By such processing, the probability that each cell constituting the image data is an extraction target is converted into image data, and the extraction target is detected using the image data, so that the entire image is displayed. Even if the brightness and the like are different, the analysis result is not affected by it.
Further, in the extraction result of the object thus obtained, for example, a portion confusing with the insect A is not extracted together with the insect A, and it is possible to obtain an analysis result close to visual confirmation. ..

次に、図4のフローチャートを参照して、ステップS3において実行される画像識別処理について説明する。 Next, the image identification process executed in step S3 will be described with reference to the flowchart of FIG.

ステップS11において、画像識別処理部14は、操作入力情報取得部12から供給されるユーザの操作入力に基づいて、識別するべきターゲットの指定を受ける。ここでは、画像識別処理部14は、識別するべきターゲットとして、昆虫Aの指定を受ける。 In step S11, the image identification processing unit 14 receives the designation of the target to be identified based on the user's operation input supplied from the operation input information acquisition unit 12. Here, the image identification processing unit 14 receives the designation of insect A as the target to be identified.

ステップS12において、画像識別処理部14は、学習結果に基づいて、ターゲットの識別処理を実行する。 In step S12, the image identification processing unit 14 executes the target identification processing based on the learning result.

13において、画像識別処理部14は、ステップS12の処理による識別結果に基づいて、セルごとに、ターゲットに含まれる画素の画素値が抽出対象である確率を算出して、識別結果変換処理部15に供給し、処理は、図3のステップS4に戻る。 In 13, the image identification processing unit 14 calculates the probability that the pixel value of the pixel included in the target is the extraction target for each cell based on the identification result obtained by the processing in step S12, and the identification result conversion processing unit 15 The process returns to step S4 of FIG.

このような処理により、画像識別処理部14は、ディープラーニングの手法を用いて、例えば、昆虫Aが付着した野菜の多くの画像から得た特徴量の学習結果に基づいて、ユーザによる特徴量の設定を必要とすることなく、昆虫Aと紛らわしい部分等に対応する部分を排除して、抽出対象物を抽出することが可能である。 By such processing, the image identification processing unit 14 uses a deep learning method, for example, based on the learning result of the feature amount obtained from many images of the vegetables to which the insect A is attached, the feature amount by the user. It is possible to extract the extraction target by excluding the portion corresponding to the portion confusing with the insect A without requiring setting.

次に、図5のフローチャートを参照して、図3のステップS5において実行される従来型画像処理1について説明する。 Next, the conventional image processing 1 executed in step S5 of FIG. 3 will be described with reference to the flowchart of FIG.

ステップS21において、画像処理部16は、識別結果変換処理部15から供給された画素値を有するセル画像データ、すなわち、セル画像の画素値が抽出対象物である確率を示す画像データに対して、所定の閾値以下の画素値を有するセル画像の画素値を0とする。識別結果変換処理部15から供給された画像データが、昆虫Aの存在する確率が高いセルが画素値の高いドットで示され、昆虫Aの存在する確率が低いセルが画素値の低いドットで示されている画像データである。 In step S21, the image processing unit 16 refers to the cell image data having the pixel value supplied from the identification result conversion processing unit 15, that is, the image data indicating the probability that the pixel value of the cell image is the extraction target. The pixel value of the cell image having the pixel value equal to or less than a predetermined threshold value is set to 0. In the image data supplied from the identification result conversion processing unit 15, cells having a high probability of presence of insect A are indicated by dots having a high pixel value, and cells having a low probability of presence of insect A are indicated by dots having a low pixel value. It is the image data that has been created.

画素値の70%を閾値として、それ以下の画素値を有するセルについては、画素値を0とした場合、例えば、野菜に付着した昆虫A中で存在する昆虫Aの特徴と近い特徴を有している昆虫Aと紛らわしい部分によるノイズ成分がある程度除去された画像データが得られる。 For cells having a pixel value of 70% of the pixel value as a threshold value and having a pixel value less than that, when the pixel value is set to 0, for example, it has characteristics similar to those of insect A existing in insect A attached to vegetables. Image data can be obtained in which the noise component due to the part confusing with the insect A is removed to some extent.

ステップS22において、画像処理部16は、ステップS21の処理により画素値ありとなったドットの面積を広げる膨張処理を実行する。この処理により、図6乃至図27等の画像のうち、野菜に付着した昆虫Aの検出されている部分が、表される。 In step S22, the image processing unit 16 executes an expansion process for expanding the area of the dots having pixel values by the process of step S21. By this processing, in the images of FIGS. 6 to 27 and the like, the portion where the insect A attached to the vegetable is detected is shown.

ステップS23において、画像処理部16は、ステップS22の処理により得られた画像データから、連続している画素の長さを検出し、所定の閾値以下の長さとなる成分を除去する。この処理により、図6乃至図27等の画像データのうち、昆虫Aと紛らわしい部分や、ステップS21の処理によって削除できなかったノイズ成分が除去された画像データを得ることができる。 In step S23, the image processing unit 16 detects the length of continuous pixels from the image data obtained by the process of step S22, and removes a component having a length equal to or less than a predetermined threshold value. By this processing, it is possible to obtain image data in which the portion of the image data shown in FIGS. 6 to 27 that is confusing with the insect A and the noise component that could not be deleted by the processing in step S21 are removed.

ステップS24において、画像処理部16は、ステップS23の処理により得られた画像データのエッジ部分を滑らかにするクロージング処理を実行する。この処理により、図6乃至図27等に示された画像データから、画像データを得ることができる。 In step S24, the image processing unit 16 executes a closing process for smoothing the edge portion of the image data obtained by the process of step S23. By this process, image data can be obtained from the image data shown in FIGS. 6 to 27 and the like.

ステップS25において、画像処理部16は、ステップS24の処理により得られた画像データに対して、骨格線抽出処理を実行することにより、ステップS22の膨張処理により膨張された、野菜に付着した昆虫Aの形状に戻して、画像データを得ることができる。 In step S25, the image processing unit 16 executes the skeleton line extraction process on the image data obtained by the process of step S24, so that the insect A attached to the vegetables expanded by the expansion process of step S22. Image data can be obtained by returning to the shape of.

ステップS26において、画像処理部16は、ステップS25の処理により得られた画像データの連続している画素の長さを検出し、所定の閾値以下の長さとなる成分を除去する。この処理により、画像データのうち、昆虫Aと紛らわしい部分や、ステップS21およびステップS23の処理によって削除できなかったノイズ成分が除去され、図3に示されるような画像データを得ることができる。ステップS26の処理の終了後、処理は、図3のステップS6に戻る。 In step S26, the image processing unit 16 detects the length of continuous pixels of the image data obtained by the process of step S25, and removes a component having a length equal to or less than a predetermined threshold value. By this processing, the portion of the image data that is confused with the insect A and the noise component that could not be deleted by the processing of steps S21 and S23 are removed, and the image data as shown in FIG. 3 can be obtained. After the process of step S26 is completed, the process returns to step S6 of FIG.

このような処理により、画像処理部16は、識別結果変換処理部15から供給され、各ドットの画素値が抽出対象物である確率を示す画像データに対して、従来行われていた画像処理をさらに行うことにより、ディープラーニングの手法を用いた抽出対象物の学習結果を有している識別器による画像識別結果よりも精度良く、検出するべき対象物を抽出することが可能となる。 By such processing, the image processing unit 16 performs image processing conventionally performed on the image data supplied from the identification result conversion processing unit 15 and indicating the probability that the pixel value of each dot is the extraction target object. Further, by doing so, it becomes possible to extract the object to be detected more accurately than the image identification result by the classifier having the learning result of the extraction object using the deep learning method.

これに対して、抽出結果を出力可能な識別器と同等の能力を有する画像識別処理部14を用いて検出された、それぞれのセルが抽出対象物である確率を、識別結果変換処理部15により画像データに変換し、野菜Wの中で存在する昆虫Aに関する知見を反映した画像処理機能を有する画像処理部16によって処理した場合、昆虫Aに近いノイズ成分が除去された抽出結果を得ることが可能となる。このようにして、画像判別装置1を用いて、目視の確認に近い解析結果を得ることが可能となる。 On the other hand, the identification result conversion processing unit 15 determines the probability that each cell is an extraction target, which is detected by using the image identification processing unit 14 having the same ability as the classifier capable of outputting the extraction result. When converted into image data and processed by the image processing unit 16 having an image processing function reflecting the knowledge about the insect A existing in the vegetable W, it is possible to obtain an extraction result in which noise components close to the insect A are removed. It will be possible. In this way, it is possible to obtain an analysis result close to visual confirmation by using the image discrimination device 1.

上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or software. When a series of processes are executed by software, the programs that make up the software can execute various functions by installing a computer embedded in dedicated hardware or various programs. It is installed from a program recording medium on a possible, eg, general purpose personal computer.

1 画像判別装置(異物の判別部)
2 入力部
3 出力部
11 照射部
111 上面照射部
112 下面照射部
12 操作入力情報取得部
13 画像データ分割処理部(区分分割手段)
14 画像識別処理部
15 識別結果変換処理部
16 画像処理部
17 出力処理部
18 記憶部
21 画像データ取得部
31 異物の検出装置
41 コンベア
A 抽出対象物(昆虫、異物)
W 撮影対象物(被検査物)

1 Image discrimination device (foreign matter discrimination unit)
2 Input unit 3 Output unit 11 Irradiation unit 111 Top surface irradiation unit 112 Bottom surface irradiation unit 12 Operation input information acquisition unit 13 Image data division processing unit (division division means)
14 Image identification processing unit 15 Identification result conversion processing unit 16 Image processing unit 17 Output processing unit 18 Storage unit 21 Image data acquisition unit 31 Foreign matter detection device 41 Conveyor A Extraction target (insects, foreign matter)
W Object to be photographed (object to be inspected)

Claims (8)

被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
画像データから抽出対象物を抽出し画像解析にあたり、
撮影対象物に光を照射するとともに適正露出以上に露出を上げた状態を含む複数の状態で撮影して異なる露出の画像を得るとともに、画像データ取得部から得られる、画像データから異物を判別する異物の検出装置であって、
前記画像データを区分分割する区分分割部と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割部により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別部と、
前記画像識別部により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換部と、
前記識別結果変換部により変換された前記画素値を有する画像に画像処理を行う画像処理部と
を備えることを特徴とする異物の検出装置。
An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
Extracting the extraction target from the image data and performing image analysis
While irradiating the object to be photographed with light and taking pictures in a plurality of states including a state in which the exposure is raised above the proper exposure, images with different exposures are obtained, and foreign matter is discriminated from the image data obtained from the image data acquisition unit. It is a foreign matter detection device
A division division unit that divides the image data and
It has a machine learning result of the feature amount of the extraction target object by the deep learning method, and based on the machine learning result, the division is extracted for each division of the image data divided by the division division unit. An image identification unit that calculates the probability of being an object,
An identification result conversion unit that converts the probability of being the extraction target for each category into a pixel value, which is calculated by the image identification unit.
A foreign matter detection device including an image processing unit that performs image processing on an image having the pixel value converted by the identification result conversion unit.
被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
画像データから抽出対象物を抽出し画像解析にあたり、
撮影対象物と同色乃至近似した光を照射するとともに適正露出以上に露出を上げた状態を含む複数の状態で撮影して異なる露出の画像を得るとともに、画像データ取得部から得られる、画像データから異物を判別する異物の検出装置であって、
前記画像データを区分分割する区分分割部と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割部により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別部と、
前記画像識別部により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換部と、
前記識別結果変換部により変換された前記画素値を有する画像に画像処理を行う画像処理部と
を備えることを特徴とする異物の検出装置。
An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
Extracting the extraction target from the image data and performing image analysis
From the image data obtained from the image data acquisition unit, while irradiating light of the same color or similar to the object to be photographed and shooting in a plurality of states including a state in which the exposure is raised above the appropriate exposure, images with different exposures are obtained. It is a foreign matter detection device that discriminates foreign matter.
A division division unit that divides the image data and
It has a machine learning result of the feature amount of the extraction target object by the deep learning method, and based on the machine learning result, the division is extracted for each division of the image data divided by the division division unit. An image identification unit that calculates the probability of being an object,
An identification result conversion unit that converts the probability of being the extraction target for each category into a pixel value, which is calculated by the image identification unit.
A foreign matter detection device including an image processing unit that performs image processing on an image having the pixel value converted by the identification result conversion unit.
被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
画像データから抽出対象物を抽出し画像解析にあたり、
撮影対象物である白色野菜に紫色光あるいは、青色光あるいは、紫外光を照射するとともに適正露出以上に露出を上げた状態を含む複数の状態で撮影して異なる露出の画像を得るとともに、画像データ取得部から得られる、画像データから異物を判別する異物の検出装置であって、
前記画像データを区分分割する区分分割部と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割部により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別部と、
前記画像識別部により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換部と、
前記識別結果変換部により変換された前記画素値を有する画像に画像処理を行う画像処理部と
を備えることを特徴とする異物の検出装置。
An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
Extracting the extraction target from the image data and performing image analysis
Images of different exposures can be obtained by irradiating white vegetables, which are the objects to be photographed, with purple light, blue light, or ultraviolet light and in multiple states including a state in which the exposure is raised above the proper exposure, and image data. A foreign matter detection device that discriminates foreign matter from image data obtained from the acquisition unit.
A division division unit that divides the image data and
It has a machine learning result of the feature amount of the extraction target object by the deep learning method, and based on the machine learning result, the division is extracted for each division of the image data divided by the division division unit. An image identification unit that calculates the probability of being an object,
An identification result conversion unit that converts the probability of being the extraction target for each category into a pixel value, which is calculated by the image identification unit.
A foreign matter detection device including an image processing unit that performs image processing on an image having the pixel value converted by the identification result conversion unit.
前記画像処理部は、前記区分分割部により分割された前記画像データに画像処理を行い、
前記画像識別部は、前記画像処理部により画像処理された前記画像データに対して、前記画像データの前記区分ごとに、前記抽出対象物である確率を算出することを特徴とする請求項1又は請求項2又は請求項3のいずれか記載の異物の検出装置、からなる。
The image processing unit performs image processing on the image data divided by the division division unit, and then performs image processing on the image data.
The image identification unit is characterized in that it calculates the probability of being the extraction target for each of the categories of the image data with respect to the image data image-processed by the image processing unit. The device comprises a foreign matter detection device according to any one of claims 2 and 3.
緑色野菜に、
緑色光を照射するとともに、適正露出以上に露出を上げて撮影し、
緑色光の反射光を取り入れ画像データを得て、
画像データから異物を判別する請求項1又は請求項2又は請求項3又は請求項4いずれか記載の異物の判別装置。
For green vegetables
While irradiating with green light, take a picture with the exposure raised above the proper exposure.
Take in the reflected light of green light and obtain image data,
The foreign matter discriminating device according to any one of claim 1 or 2, claim 3 or claim 4, which discriminates a foreign substance from image data.
赤色野菜に、
赤色光または近い赤外線光を照射するとともに、適正露出以上に露出を上げて撮影し、
赤色光または近赤外線光を取り入れ画像データを得て、
画像データから異物を判別する請求項1又は請求項2又は請求項3又は請求項4いずれか記載の異物の判別装置。
For red vegetables
Irradiate red light or near infrared light, and raise the exposure above the proper exposure to shoot.
Take in red light or near infrared light to obtain image data,
The foreign matter discriminating device according to any one of claim 1 or 2, claim 3 or claim 4, which discriminates a foreign substance from image data.
被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
異物を含んでいる撮影対象物に、紫外光から赤外線光まで波長の異なる光を連続変化させて照射するとともに、適正露出以上に露出を上げて撮影し、撮影したそれぞれの画像で白く撮影されている面積を演算し、それぞれの画像を比較することによって、画像で最も被写体が白く撮影されているものに使用された光の周波数が異物検出に適した光の周波数と判断し、
異物検出に必要な光の周波数を特定する異物の検出装置。
An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
The object to be photographed containing foreign matter is irradiated with light of different wavelengths from ultraviolet light to infrared light by continuously changing the light, and the exposure is raised above the appropriate exposure, and each photographed image is photographed in white. By calculating the area covered and comparing each image, it is determined that the frequency of light used for the whitest subject in the image is the frequency of light suitable for detecting foreign matter.
A foreign matter detection device that identifies the frequency of light required for foreign matter detection.
被検査物を搬送する透明あるいは半透明からなるコンベアの上面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な上面照射部と、
コンベアの下面から被検査物に光を照射するとともにコンベアに対する照射角度が変更可能な下面照射部と、
コンベアの上面から被検査物を撮影する画像データ取得部と、を有し、
コンベアに近接離隔移動可能であるとともに、
画像データから抽出対象物を抽出し画像解析にあたり、
撮影対象物に光を照射するとともに適正露出以上に露出を上げた状態を含む複数の状態で撮影して異なる露出の画像を得るとともに、画像データ取得部から得られる、画像データから異物を判別する異物の検出装置であって、
前記画像データを区分分割する区分分割部と、
ディープラーニングの手法による前記抽出対象物の特徴量の機械学習結果を有し、前記機械学習結果に基づいて、前記区分分割部により分割された前記画像データの前記区分ごとに、前記区分が前記抽出対象物である確率を算出する画像識別部と、
前記画像識別部により算出された、前記区分ごとの前記抽出対象物である確率を画素値に変換する識別結果変換部と、
前記識別結果変換部により変換された前記画素値を有する画像に画像処理を行う画像処理部と、を備え、
撮影対象物に照射する光は、
異物を含んでいる撮影対象物に、紫外光から赤外線光まで波長の異なる光を連続変化させて照射するとともに、適正露出以上に露出を上げて撮影し、撮影したそれぞれの画像で白く撮影されている面積を演算し、それぞれの画像を比較することによって、画像で最も被写体が白く撮影されているものに使用された光の周波数が異物検出に適した光の周波数と判断し、
異物検出に必要な光の周波数を特定することを特徴とする異物の検出装置。


An upper surface irradiation unit that irradiates the object to be inspected with light from the upper surface of a transparent or translucent conveyor that conveys the object to be inspected and the irradiation angle to the conveyor can be changed.
The bottom surface irradiation part that irradiates the object to be inspected with light from the bottom surface of the conveyor and the irradiation angle to the conveyor can be changed.
It has an image data acquisition unit that captures the object to be inspected from the top surface of the conveyor.
In addition to being able to move close to and away from the conveyor
Extracting the extraction target from the image data and performing image analysis
While irradiating the object to be photographed with light and taking pictures in a plurality of states including a state in which the exposure is raised above the proper exposure, images with different exposures are obtained, and foreign matter is discriminated from the image data obtained from the image data acquisition unit. It is a foreign matter detection device
A division division unit that divides the image data and
It has a machine learning result of the feature amount of the extraction target object by the deep learning method, and based on the machine learning result, the division is extracted for each division of the image data divided by the division division unit. An image identification unit that calculates the probability of being an object,
An identification result conversion unit that converts the probability of being the extraction target for each category into a pixel value, which is calculated by the image identification unit.
An image processing unit that performs image processing on an image having the pixel value converted by the identification result conversion unit is provided.
The light that illuminates the object to be photographed is
The object to be photographed containing foreign matter is irradiated with light of different wavelengths from ultraviolet light to infrared light by continuously changing the light, and the exposure is raised above the appropriate exposure, and each photographed image is photographed in white. By calculating the area covered and comparing each image, it is determined that the frequency of light used for the whitest subject in the image is the frequency of light suitable for detecting foreign matter.
A foreign matter detection device characterized in that the frequency of light required for foreign matter detection is specified.


JP2019132238A 2019-07-17 2019-07-17 foreign object detector Active JP7262766B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019132238A JP7262766B2 (en) 2019-07-17 2019-07-17 foreign object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019132238A JP7262766B2 (en) 2019-07-17 2019-07-17 foreign object detector

Publications (2)

Publication Number Publication Date
JP2021018082A true JP2021018082A (en) 2021-02-15
JP7262766B2 JP7262766B2 (en) 2023-04-24

Family

ID=74564263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132238A Active JP7262766B2 (en) 2019-07-17 2019-07-17 foreign object detector

Country Status (1)

Country Link
JP (1) JP7262766B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022019569A (en) * 2020-07-17 2022-01-27 株式会社カナヤ食品 Teacher data generation method, foreign matter inspection device, and foreign matter inspection method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000146848A (en) * 1998-09-09 2000-05-26 Shionogi Qualicaps Kk Foreign matter inspection method and device for granule
JP2004028930A (en) * 2002-06-28 2004-01-29 Hitachi Industries Co Ltd Device and method for detecting foreign matter in container
JP2008541007A (en) * 2005-06-03 2008-11-20 株式会社前川製作所 Food foreign matter detection device
JP2010091530A (en) * 2008-10-10 2010-04-22 Hitachi Plant Technologies Ltd Method and apparatus for inspecting foreign substance
JP2016099175A (en) * 2014-11-19 2016-05-30 サムテック・イノベーションズ株式会社 Article inspection device
JP2018185552A (en) * 2017-04-24 2018-11-22 公益財団法人鉄道総合技術研究所 Image analysis apparatus, image analysis method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000146848A (en) * 1998-09-09 2000-05-26 Shionogi Qualicaps Kk Foreign matter inspection method and device for granule
JP2004028930A (en) * 2002-06-28 2004-01-29 Hitachi Industries Co Ltd Device and method for detecting foreign matter in container
JP2008541007A (en) * 2005-06-03 2008-11-20 株式会社前川製作所 Food foreign matter detection device
JP2010091530A (en) * 2008-10-10 2010-04-22 Hitachi Plant Technologies Ltd Method and apparatus for inspecting foreign substance
JP2016099175A (en) * 2014-11-19 2016-05-30 サムテック・イノベーションズ株式会社 Article inspection device
JP2018185552A (en) * 2017-04-24 2018-11-22 公益財団法人鉄道総合技術研究所 Image analysis apparatus, image analysis method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022019569A (en) * 2020-07-17 2022-01-27 株式会社カナヤ食品 Teacher data generation method, foreign matter inspection device, and foreign matter inspection method
JP7053075B2 (en) 2020-07-17 2022-04-12 株式会社カナヤ食品 Teacher data generation method and foreign matter inspection device and foreign matter inspection method

Also Published As

Publication number Publication date
JP7262766B2 (en) 2023-04-24

Similar Documents

Publication Publication Date Title
Throop et al. Quality evaluation of apples based on surface defects: development of an automated inspection system
Ali et al. Combination of laser-light backscattering imaging and computer vision for rapid determination of oil palm fresh fruit bunches maturity
KR101650679B1 (en) Method for scoring and controlling quality of food products in a dynamic production line
RU2621485C2 (en) Method and device for processing harvested root crops
KR101936457B1 (en) Calibration of a dynamic digital imaging system for detecting defects in production stream
Shearer et al. Color and defect sorting of bell peppers using machine vision
Lee et al. Development of a machine vision system for automatic date grading using digital reflective near-infrared imaging
JP5340717B2 (en) X-ray inspection equipment
Bennedsen et al. Performance of a system for apple surface defect identification in near-infrared images
Vadivambal et al. Bio-imaging: principles, techniques, and applications
Guzmán et al. Infrared machine vision system for the automatic detection of olive fruit quality
KR20120109473A (en) Apparatus, system and method for detecting defects of metallic lids
WO2017168469A1 (en) Visual inspection apparatus and visual inspection method
CN106442561A (en) Online image acquisition system for detecting citrus skin defects and method
Zhang et al. Detection of common defects on mandarins by using visible and near infrared hyperspectral imaging
CN113256575B (en) Fruit defect detection method based on structured hyperspectral system
KR20200000312U (en) Leather inspection equipment
JP7262766B2 (en) foreign object detector
Chopde et al. Developments in computer vision system, focusing on its applications in quality inspection of fruits and vegetables-A review
JP7248284B2 (en) Foreign matter detection device, foreign matter detection method, and foreign matter detection program
EP3487637B1 (en) Measuring device for multispectral measuring of quality features or defects of products and method therefor
JP6731134B2 (en) Potato determination device and potato selection device
JP4171806B2 (en) A method for determining the grade of fruits and vegetables.
Nguyen et al. Early detection of slight bruises in apples by cost-efficient near-infrared imaging
JP2002162358A (en) Method and equipment for detecting transmuted part of object for inspection

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7262766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150