JP2017111085A - Food product inspection system and food product inspection method - Google Patents

Food product inspection system and food product inspection method Download PDF

Info

Publication number
JP2017111085A
JP2017111085A JP2015247386A JP2015247386A JP2017111085A JP 2017111085 A JP2017111085 A JP 2017111085A JP 2015247386 A JP2015247386 A JP 2015247386A JP 2015247386 A JP2015247386 A JP 2015247386A JP 2017111085 A JP2017111085 A JP 2017111085A
Authority
JP
Japan
Prior art keywords
image
hair
food
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015247386A
Other languages
Japanese (ja)
Other versions
JP6715001B2 (en
Inventor
昌夫 仲村
Masao Nakamura
昌夫 仲村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ryutsu System Sekkei Co Ltd
Original Assignee
Ryutsu System Sekkei Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ryutsu System Sekkei Co Ltd filed Critical Ryutsu System Sekkei Co Ltd
Priority to JP2015247386A priority Critical patent/JP6715001B2/en
Publication of JP2017111085A publication Critical patent/JP2017111085A/en
Application granted granted Critical
Publication of JP6715001B2 publication Critical patent/JP6715001B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a food product inspection system and a food product inspection method capable of more correctly detecting a hair in a food product.SOLUTION: An imaging part 13 images an image of a food product. A contrast calculation part 112 calculates a contrast of an attention area in the image which is imaged by the imaging part 13 and a peripheral area with respect to the attention area. A hair detection part 114 detects an image of a hair included in the image which is imaged by the imaging part 13 based on the contrast calculated by the contrast calculation part 112. Therefore, since it is possible to detect an image of the hair using not an absolute value but a relative value, so that the hair in the food product can be detected more correctly.SELECTED DRAWING: Figure 2

Description

本発明は、食品中の毛髪を検出するための食品検査システム及び食品検査方法に関するものである。   The present invention relates to a food inspection system and a food inspection method for detecting hair in food.

食品の製造過程やパッキング過程において、作業者の毛髪(頭髪、眉毛、まつ毛など)が食品に付着する場合がある。このように、食品に毛髪が付着した状態のまま出荷されることは、衛生管理の観点から好ましくない。そこで、従来から、食品に混入した異物を検出するための異物検出装置が各種提案されている(例えば、下記特許文献1参照)。   In the manufacturing process and packing process of food, the operator's hair (head hair, eyebrows, eyelashes, etc.) may adhere to the food. Thus, it is not preferable from the viewpoint of hygiene management that the food is shipped with the hair attached thereto. Thus, various foreign object detection devices for detecting foreign substances mixed in food have been proposed (for example, see Patent Document 1 below).

特許文献1に例示されるような異物検出装置の多くは、食品の画像を撮影し、その画像を二値化処理してから、画像に含まれる異物を検出するための処理を行う。すなわち、画像を二値化処理して、画像中の白色に近い領域と黒色に近い領域とを区別することにより、黒色に近い異物を検出しやすくしている。   Many foreign object detection devices exemplified in Patent Document 1 take a food image, binarize the image, and then perform a process for detecting the foreign object included in the image. That is, by binarizing the image and distinguishing between a region close to white and a region close to black in the image, foreign matter close to black is easily detected.

特表2008−541007号公報Special table 2008-541007 gazette

しかしながら、異物の中でも毛髪を検出することは特に難しく、食品に毛髪が付着した状態のまま出荷されてしまうケースを確実に防止することは困難であった。人間が肉眼で食品を確認すれば毛髪が付着していると容易に判別できるような場合であっても、上記のような従来の画像処理では、毛髪を確実に検出することができない場合があった。   However, it is particularly difficult to detect hair among foreign substances, and it has been difficult to reliably prevent cases where the hair is shipped with food attached to the food. Even if it is easy for humans to identify food with the naked eye, it may not be possible to reliably detect hair using conventional image processing as described above. It was.

その理由として、人間の目からの情報と、実際に見えるもの(脳が認識する情報)とが、必ずしも一致しないということが考えられる。すなわち、画像を二値化する処理は、人間が脳で認識する方法とは大きくかけ離れた処理であるため、白色に近い領域と黒色に近い領域とを区別することはできても、毛髪であるか否かを正確に検出することは困難であり、むしろ二値化処理を行うことで毛髪であるか否かの判断が難しくなっているとも考えられる。   The reason may be that information from the human eye does not always match what is actually seen (information recognized by the brain). In other words, the process of binarizing the image is a process that is far from the method that humans recognize with the brain, so even though it can distinguish between areas close to white and areas close to black, it is hair. It is difficult to accurately detect whether or not it is hair, and it is considered that it is difficult to determine whether or not it is hair by performing binarization processing.

本発明は、上記実情に鑑みてなされたものであり、食品中の毛髪をより正確に検出することができる食品検査システム及び食品検査方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a food inspection system and a food inspection method capable of more accurately detecting hair in food.

本発明に係る食品検査システムは、食品中の毛髪を検出するための食品検査システムであって、撮影部と、コントラスト演算部と、毛髪検出部とを備える。前記撮影部は、食品の画像を撮影する。前記コントラスト演算部は、前記撮影部により撮影された画像中の注目領域と当該注目領域に対する周辺領域とのコントラストを算出する。前記毛髪検出部は、前記コントラスト演算部により算出されたコントラストに基づいて、前記撮影部により撮影された画像に含まれる毛髪の画像を検出する。   The food inspection system according to the present invention is a food inspection system for detecting hair in food, and includes a photographing unit, a contrast calculation unit, and a hair detection unit. The imaging unit captures an image of food. The contrast calculation unit calculates a contrast between a region of interest in the image photographed by the photographing unit and a peripheral region with respect to the region of interest. The hair detection unit detects an image of hair included in the image photographed by the photographing unit based on the contrast calculated by the contrast calculation unit.

このような構成によれば、撮影部により撮影された画像に対して、二値化処理が行われるのではなく、画像中の注目領域と当該注目領域に対する周辺領域とのコントラスト(差)が算出されることにより、そのコントラストに基づいて、撮影された画像に含まれる毛髪の画像が検出される。これにより、絶対値ではなく相対値を用いて毛髪の画像を検出することができるため、食品中の毛髪をより正確に検出することができる。   According to such a configuration, the binarization process is not performed on the image photographed by the photographing unit, but the contrast (difference) between the attention area in the image and the peripheral area with respect to the attention area is calculated. By doing so, the image of the hair contained in the photographed image is detected based on the contrast. Thereby, since the image of hair can be detected using a relative value rather than an absolute value, hair in food can be detected more accurately.

前記コントラスト演算部は、赤(R)、緑(G)、青(B)、色相(H)、彩度(S)及び明度(V)のうち少なくとも1つの要素について、注目領域と当該注目領域に対する周辺領域とのコントラストを算出してもよい。   The contrast calculation unit includes a region of interest and a region of interest for at least one element among red (R), green (G), blue (B), hue (H), saturation (S), and brightness (V). Contrast with the surrounding area may be calculated.

このような構成によれば、RGB及びHSVに含まれる少なくとも1つの要素について、画像中の注目領域と当該注目領域に対する周辺領域とのコントラストが算出される。これらの要素は、人間が目からの情報を処理する際の重要な要素であるため、当該要素を用いることによって、食品中の毛髪をより正確に検出することができる。   According to such a configuration, the contrast between the attention area in the image and the peripheral area with respect to the attention area is calculated for at least one element included in RGB and HSV. Since these elements are important elements when humans process information from the eyes, it is possible to more accurately detect hair in food by using the elements.

前記食品検査システムは、検査対象となる食品の種別の入力を受け付ける食品種別入力受付部をさらに備えていてもよい。この場合、前記コントラスト演算部は、前記食品種別入力受付部により入力が受け付けられた食品の種別に応じて選択される前記少なくとも1つの要素について、注目領域と当該注目領域に対する周辺領域とのコントラストを算出してもよい。   The food inspection system may further include a food type input receiving unit that receives an input of a type of food to be inspected. In this case, the contrast calculation unit calculates the contrast between the attention area and the surrounding area with respect to the attention area for the at least one element selected according to the type of food received by the food type input reception section. It may be calculated.

このような構成によれば、食品種別入力受付部により入力が受け付けられた検査対象となる食品の種別に応じて、RGB及びHSVに含まれる少なくとも1つの要素を適切に選択し、その要素を用いて食品中の毛髪をより正確に検出することができる。例えば、食品の種別が赤い肉である場合には、青(B)の要素を用いることにより、食品中の毛髪をより正確に検出することができる。   According to such a configuration, at least one element included in RGB and HSV is appropriately selected according to the type of the food to be inspected whose input is received by the food type input receiving unit, and the element is used. Thus, the hair in the food can be detected more accurately. For example, when the type of food is red meat, the hair in the food can be detected more accurately by using the blue (B) element.

前記食品検査システムは、前記コントラスト演算部により算出されたコントラストが閾値以上の注目領域を輪郭領域として抽出する輪郭領域抽出部をさらに備えていてもよい。この場合、前記毛髪検出部は、前記輪郭領域抽出部により抽出された輪郭領域に基づいて、前記撮影部により撮影された画像に含まれる毛髪の画像を検出してもよい。   The food inspection system may further include a contour region extraction unit that extracts a region of interest whose contrast calculated by the contrast calculation unit is equal to or greater than a threshold value as a contour region. In this case, the hair detection unit may detect a hair image included in the image photographed by the photographing unit based on the contour region extracted by the contour region extraction unit.

このような構成によれば、絶対値ではなく相対値を用いて輪郭領域を良好に抽出することができるため、抽出された輪郭領域に基づいて、食品中の毛髪をより正確に検出することができる。   According to such a configuration, the contour region can be satisfactorily extracted using a relative value instead of an absolute value, and thus hair in food can be detected more accurately based on the extracted contour region. it can.

前記食品検査システムは、毛髪のサンプル画像を記憶するサンプル画像記憶部をさらに備えていてもよい。この場合、前記毛髪検出部は、前記輪郭領域抽出部により抽出された輪郭領域の画像を、前記サンプル画像記憶部に記憶されているサンプル画像と比較することにより、前記撮影部により撮影された画像に含まれる毛髪の画像を検出してもよい。   The food inspection system may further include a sample image storage unit that stores a sample image of hair. In this case, the hair detection unit compares the image of the contour region extracted by the contour region extraction unit with the sample image stored in the sample image storage unit, thereby capturing an image photographed by the photographing unit. You may detect the image of the hair contained in.

このような構成によれば、輪郭領域の画像が毛髪のサンプル画像と比較されることにより、撮影された画像に含まれる毛髪の画像が検出される。人間は、自らの記憶との対比によって毛髪を認識するため、本発明によれば、人間の認識方法と同様の処理を用いて食品中の毛髪をより正確に検出することができる。   According to such a configuration, the image of the hair included in the photographed image is detected by comparing the image of the contour region with the sample image of the hair. Since humans recognize hair by contrast with their own memory, according to the present invention, hair in food can be detected more accurately by using a process similar to the human recognition method.

前記毛髪検出部は、前記輪郭領域抽出部により抽出された輪郭領域の画像の直線性に基づいて、前記撮影部により撮影された画像に含まれる毛髪の画像を検出してもよい。   The hair detection unit may detect an image of hair included in the image photographed by the photographing unit based on the linearity of the contour region image extracted by the contour region extraction unit.

このような構成によれば、輪郭領域の画像が直線に近いか否かに基づいて、撮影された画像に含まれる毛髪の画像が検出される。人間は、輪郭領域が直線に近い場合は毛髪である可能性が高いと認識する傾向があるため、本発明によれば、人間の認識方法と同様の処理を用いて食品中の毛髪をより正確に検出することができる。   According to such a configuration, an image of hair included in the photographed image is detected based on whether or not the image of the contour region is close to a straight line. Since humans tend to recognize that hair is more likely to be hair when the contour region is close to a straight line, according to the present invention, hair in food is more accurately detected using a process similar to the human recognition method. Can be detected.

前記毛髪検出部は、前記輪郭領域抽出部により抽出された輪郭領域の画像の画素数及び輪郭領域の内側の画素数に基づいて、前記撮影部により撮影された画像に含まれる毛髪の画像を検出してもよい。   The hair detection unit detects a hair image included in the image photographed by the photographing unit based on the number of pixels of the contour region image extracted by the contour region extraction unit and the number of pixels inside the contour region. May be.

このような構成によれば、輪郭領域の画像の画素数(周囲長L)、及び、輪郭領域の画素数と輪郭領域の内側の画素数との和(面積S)をカウントすることにより、画像の周囲長Lと面積Sとの比(L/S)が大きいか否かに基づいて、撮影された画像に含まれる毛髪の画像が検出される。人間は、L/Sの値が大きい場合は毛髪である可能性が高いと認識する傾向があるため、本発明によれば、人間の認識方法と同様の処理を用いて食品中の毛髪をより正確に検出することができる。   According to such a configuration, by counting the number of pixels (peripheral length L) of the image of the contour region and the sum (area S) of the number of pixels of the contour region and the number of pixels inside the contour region, the image A hair image included in the photographed image is detected based on whether the ratio (L / S) between the perimeter length L and the area S is large. Since humans tend to recognize that hair is likely to be hair when the value of L / S is large, according to the present invention, the hair in food is more easily treated using the same process as the human recognition method. It can be detected accurately.

本発明に係る食品検査方法は、食品中の毛髪を検出するための食品検査方法であって、撮影ステップと、コントラスト演算ステップと、毛髪検出ステップとを備える。前記撮影ステップでは、食品の画像を撮影する。前記コントラスト演算ステップでは、前記撮影ステップにより撮影された画像中の注目領域と当該注目領域に対する周辺領域とのコントラストを算出する。前記毛髪検出ステップでは、前記コントラスト演算ステップにより算出されたコントラストに基づいて、前記撮影ステップにより撮影された画像に含まれる毛髪の画像を検出する。   The food inspection method according to the present invention is a food inspection method for detecting hair in food, and includes a photographing step, a contrast calculation step, and a hair detection step. In the photographing step, a food image is photographed. In the contrast calculation step, a contrast between the attention area in the image photographed in the photographing step and a peripheral area with respect to the attention area is calculated. In the hair detection step, an image of hair included in the image photographed in the photographing step is detected based on the contrast calculated in the contrast calculation step.

本発明の一実施形態に係る食品検査システムの構成例を示した概略図である。It is the schematic which showed the structural example of the food inspection system which concerns on one Embodiment of this invention. モバイル端末の電気的構成の一例を示したブロック図である。It is the block diagram which showed an example of the electric constitution of a mobile terminal. 撮影部により撮影された画像の一例である。It is an example of the image image | photographed by the imaging | photography part. 図3Aの画像から輪郭領域抽出部が輪郭領域を抽出することにより得られた画像の一例である。FIG. 3B is an example of an image obtained by the contour region extraction unit extracting a contour region from the image of FIG. 3A. FIG. 図3Bの画像に基づいて毛髪検出部が毛髪の画像を検出するための処理を行った画像の一例である。It is an example of the image which the hair detection part performed the process for detecting the image of hair based on the image of FIG. 3B. 撮影部により撮影された画像の他の例である。It is another example of the image image | photographed by the imaging | photography part. 図4Aの画像から輪郭領域抽出部が輪郭領域を抽出することにより得られた画像の一例である。4B is an example of an image obtained by the contour region extraction unit extracting a contour region from the image of FIG. 4A. 図4Bの画像に基づいて毛髪検出部が毛髪の画像を検出するための処理を行った画像の一例である。It is an example of the image which the hair detection part performed the process for detecting the image of hair based on the image of FIG. 4B. 撮影部により撮影された画像のさらに他の例である。It is another example of the image image | photographed by the imaging | photography part. 図5Aの画像から輪郭領域抽出部が輪郭領域を抽出することにより得られた画像の一例である。5B is an example of an image obtained by the contour region extraction unit extracting a contour region from the image of FIG. 5A. 図5Bの画像に基づいて毛髪検出部が毛髪の画像を検出するための処理を行った画像の一例である。It is an example of the image which the hair detection part performed the process for detecting the image of hair based on the image of FIG. 5B. 制御部による処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the process by a control part. 制御部による処理の第1変形例を示したフローチャートである。It is the flowchart which showed the 1st modification of the process by a control part. 制御部による処理の第2変形例を示したフローチャートである。It is the flowchart which showed the 2nd modification of the process by a control part.

図1は、本発明の一実施形態に係る食品検査システムの構成例を示した概略図である。この食品検査システムは、食品Fの表面に付着している毛髪(頭髪、眉毛、まつ毛など)を検出するためのシステムであって、コンベア1上を食品Fが搬送される過程で、当該食品Fに対する検査が行われる。食品Fは、例えばトレーT上に載置された状態でコンベア1上を搬送され、検査後にラップWによりパッキングされた後、出荷される。   FIG. 1 is a schematic diagram illustrating a configuration example of a food inspection system according to an embodiment of the present invention. This food inspection system is a system for detecting hair (head hair, eyebrows, eyelashes, etc.) adhering to the surface of the food F, and in the process of transporting the food F on the conveyor 1, the food F The inspection is performed. For example, the food F is transported on the conveyor 1 in a state of being placed on the tray T, and after being inspected, packed by the wrap W and then shipped.

この食品検査システムでは、例えばモバイル端末10を用いて食品Fに対する検査が行われる。具体的には、モバイル端末10を用いてコンベア1上の食品Fが撮影され、その撮影された画像に基づいてモバイル端末10内で演算が行われることにより、食品Fの検査が行われる。なお、モバイル端末10とは、小型ノートパソコン、スマートフォン又はタブレット端末などを含む概念である。   In this food inspection system, for example, the food F is inspected using the mobile terminal 10. Specifically, the food F on the conveyor 1 is photographed using the mobile terminal 10, and the food F is inspected by performing calculations in the mobile terminal 10 based on the photographed image. The mobile terminal 10 is a concept including a small notebook personal computer, a smartphone, a tablet terminal, or the like.

モバイル端末10は、コンベア1の上方に間隔を隔てて配置される。モバイル端末10の周囲はハウジング2により囲まれており、当該ハウジング2内には、モバイル端末10の他に照明3などが配置されている。検査中は、照明3からの光で食品Fを照らしながら、モバイル端末10による撮影が行われる。ただし、モバイル端末10に備えられた照明(図示せず)を用いて食品Fを照らすような構成であってもよい。   The mobile terminals 10 are arranged above the conveyor 1 with a gap. The periphery of the mobile terminal 10 is surrounded by the housing 2, and the illumination 3 and the like are arranged in the housing 2 in addition to the mobile terminal 10. During the inspection, photographing by the mobile terminal 10 is performed while illuminating the food F with the light from the illumination 3. However, the structure which illuminates the food F using the illumination (not shown) with which the mobile terminal 10 was equipped may be sufficient.

図2は、モバイル端末10の電気的構成の一例を示したブロック図である。モバイル端末10には、例えば制御部11、操作部12、撮影部13、記憶部14及び音声出力部15などが備えられている。制御部11は、例えばCPU(Central Processing Unit)を含む構成であり、CPUがプログラムを実行することにより、食品種別入力受付部111、コントラスト演算部112、輪郭領域抽出部113、毛髪検出部114及び検出結果出力部115などとして機能する。   FIG. 2 is a block diagram showing an example of the electrical configuration of the mobile terminal 10. The mobile terminal 10 includes, for example, a control unit 11, an operation unit 12, a photographing unit 13, a storage unit 14, an audio output unit 15, and the like. The control unit 11 includes, for example, a CPU (Central Processing Unit), and when the CPU executes a program, the food type input reception unit 111, the contrast calculation unit 112, the contour region extraction unit 113, the hair detection unit 114, and It functions as the detection result output unit 115 and the like.

操作部12は、例えば表示画面に備えられたタッチパネルにより構成されている。ただし、タッチパネルに限らず、操作ボタンなどにより操作部が構成されていてもよい。撮影部13は、例えばCMOSイメージセンサにより構成されているが、これに限られるものではない。記憶部14は、RAM(Random Access Memory)及びROM(Read Only Memory)などにより構成されている。音声出力部15は、スピーカ又はイヤホンジャックなどにより構成されている。   The operation unit 12 is configured by, for example, a touch panel provided on a display screen. However, the operation unit is not limited to the touch panel, and may be configured by operation buttons or the like. The imaging unit 13 is configured by, for example, a CMOS image sensor, but is not limited thereto. The storage unit 14 includes a RAM (Random Access Memory) and a ROM (Read Only Memory). The audio output unit 15 includes a speaker or an earphone jack.

食品Fの検査を行う際には、コンベア1上の食品Fの画像が撮影部13により撮影される。このようにして得られた画像(動画)に対して制御部11が処理を行うことにより、食品F中の毛髪が検出される。具体的には、まず、コントラスト演算部112により、撮影された動画を構成する画像中の各画素について、各画素に隣接する周辺画素との間のコントラストを算出する処理が行われる。   When the food F is inspected, an image of the food F on the conveyor 1 is taken by the photographing unit 13. The control unit 11 processes the image (moving image) obtained in this manner, whereby the hair in the food F is detected. Specifically, first, the contrast calculation unit 112 performs a process of calculating the contrast between each pixel included in the captured moving image and the neighboring pixels adjacent to each pixel.

すなわち、撮影された画像中の各画素が注目画素(画像処理の対象となる画素)として順次選択され、その注目画素と、当該注目画素の周囲を取り囲む8つの周辺画素とのコントラストが算出される。コントラストとしては、例えば赤(R)、緑(G)、青(B)、色相(H)、彩度(S)及び明度(V)のうち少なくとも1つの要素についての差が算出される。この例では、各画素を注目領域(注目画素)、当該注目領域に隣接する各画素を周辺領域(周辺画素)として、コントラストが算出されるような構成について説明するが、複数の画素を注目領域、当該注目領域に隣接する複数の画素を周辺領域として、コントラストが算出されるような構成であってもよい。   That is, each pixel in the captured image is sequentially selected as a target pixel (a pixel to be subjected to image processing), and the contrast between the target pixel and eight peripheral pixels surrounding the target pixel is calculated. . As the contrast, for example, a difference for at least one element of red (R), green (G), blue (B), hue (H), saturation (S), and lightness (V) is calculated. In this example, a configuration in which contrast is calculated using each pixel as a region of interest (a pixel of interest) and each pixel adjacent to the region of interest as a peripheral region (peripheral pixel) will be described. The contrast may be calculated using a plurality of pixels adjacent to the attention area as a peripheral area.

食品種別入力受付部111は、作業者による操作部12の操作に基づいて、検査対象となる食品Fの種別の入力を受け付ける。作業者は、例えばモバイル端末10の表示画面に表示される複数種類の食品Fの種別の中から、検査対象に対応する種別を選択することができる。食品Fの種別は、例えば肉、魚、弁当などの種別であってもよいし、肉の中でも鶏肉、豚肉といったように細分化された種別や、鶏肉の中でもムネ肉、ささみ、手羽元、手羽中といった部位に細分化された種別などであってもよい。   The food type input receiving unit 111 receives an input of the type of food F to be inspected based on the operation of the operation unit 12 by the operator. For example, the worker can select a type corresponding to the inspection target from among a plurality of types of food F displayed on the display screen of the mobile terminal 10. The type of food F may be, for example, a type such as meat, fish, lunch, etc., a subdivided type such as chicken or pork among meats, or a fillet, chicken meat, chicken wings or chicken wings among chickens. The classification may be subdivided into parts such as the inside.

コントラスト演算部112は、食品種別入力受付部111により入力が受け付けられた食品Fの種別に応じて選択される赤(R)、緑(G)、青(B)、色相(H)、彩度(S)及び明度(V)の少なくとも1つの要素について、各注目画素と、当該注目画素に対する周辺画素とのコントラストを算出する。例えば、食品Fの種別が赤い肉である場合には、B(青)の要素についてコントラストが算出される。具体的には、例えば下記の態様でコントラストを算出することができる。
(1)鶏肉・豚肉・鮭切り身などのピンク色、又は、揚げ物などの茶色に対しては、青(B)の要素についてコントラストを算出する。
(2)青背の魚などの青色に対しては、赤(R)の要素についてコントラストを算出する。
(3)葉物などの緑色に対しては、明度(V)及び青(B)の要素についてコントラストを算出する。
(4)弁当は、ご飯の白い部分と、おかずの部分などの食品種別で、コントラストを算出する要素と閾値を、区分けして調べる。
(5)鮭の切り身(ピンク)とコロッケ(茶色)が隣接している場合であっても、同じ要素についてコントラストを算出するので、区分けして調べる必要がなく、一度に調べることができる。
The contrast calculation unit 112 selects red (R), green (G), blue (B), hue (H), and saturation selected according to the type of the food F that has been received by the food type input reception unit 111. For at least one element of (S) and brightness (V), the contrast between each pixel of interest and the surrounding pixels with respect to the pixel of interest is calculated. For example, when the type of the food F is red meat, the contrast is calculated for the B (blue) element. Specifically, for example, the contrast can be calculated in the following manner.
(1) Contrast is calculated for blue (B) elements for pink colors such as chicken, pork, and salmon fillets, or brown such as fried food.
(2) For a blue color such as a fish with a blue back, the contrast is calculated for the red (R) element.
(3) Contrast is calculated for lightness (V) and blue (B) elements for green such as leaves.
(4) The bento is examined by classifying the element for calculating the contrast and the threshold value according to the food type such as the white portion of the rice and the portion of the side dish.
(5) Even when the salmon fillet (pink) and croquette (brown) are adjacent to each other, the contrast is calculated for the same element, so it is not necessary to check separately and can be examined at once.

輪郭領域抽出部113は、コントラスト演算部112により算出されたコントラストが閾値以上の注目画素を輪郭画素として抽出する。ただし、複数の画素を注目領域、当該注目領域に隣接する複数の画素を周辺領域として、コントラストが算出されるような構成の場合には、コントラストが閾値以上の注目領域(複数の画素)を輪郭領域として抽出してもよい。この輪郭領域抽出部113の処理により、食品F中に毛髪が含まれている場合には、その毛髪の輪郭領域が抽出されることとなるが、毛髪以外の輪郭領域が抽出される場合もある。   The contour region extraction unit 113 extracts a target pixel whose contrast calculated by the contrast calculation unit 112 is equal to or greater than a threshold value as a contour pixel. However, in a configuration in which contrast is calculated using a plurality of pixels as a region of interest and a plurality of pixels adjacent to the region of interest as a peripheral region, the region of interest (a plurality of pixels) having a contrast equal to or greater than a threshold is outlined. It may be extracted as a region. When the hair is contained in the food F by the processing of the contour region extraction unit 113, the contour region of the hair is extracted. However, a contour region other than the hair may be extracted. .

そこで、毛髪検出部114は、輪郭領域抽出部113により抽出された輪郭領域に対して、毛髪以外の輪郭領域に対応する画素を取り除くための処理を行った上で、食品F中の毛髪を検出する。毛髪以外の画素を取り除くための処理としては、例えば下記(1)〜(3)などを例示することができる。
(1)毛髪は細長く、広い面積を有していないため、輪郭領域により囲まれた領域が広い面積を有するような領域の画素は取り除く
(2)トレーTや肉の脂身などの白色部分との境界の画素は、彩度の差が大きいため取り除く。
(3)浮遊画素は毛髪を構成しないため取り除く。
Therefore, the hair detection unit 114 detects the hair in the food F after performing processing for removing pixels corresponding to the contour region other than the hair on the contour region extracted by the contour region extraction unit 113. To do. Examples of the process for removing pixels other than hair include the following (1) to (3).
(1) Since the hair is slender and does not have a large area, pixels in the area where the area surrounded by the outline area has a large area are removed. (2) With white portions such as tray T and meat fat The pixels at the boundary are removed because the difference in saturation is large.
(3) The floating pixels are removed because they do not constitute hair.

このようにして毛髪以外の画素を取り除いた後、毛髪検出部114は、得られた画像に対して平滑化処理を行い、その画像に含まれる輪郭領域に基づいて、撮影部13により撮影された画像に含まれる毛髪の画像を検出する。本実施形態では、毛髪のサンプル画像として、各種長さ及び各種形状からなる複数のサンプル画像が記憶部14に予め記憶されており、毛髪検出部114は、輪郭領域抽出部113により抽出された輪郭領域の画像を、記憶部14に記憶されているサンプル画像と比較することにより、その一致度が閾値以上の画像を毛髪の画像として検出する。   After removing pixels other than the hair in this way, the hair detection unit 114 performs a smoothing process on the obtained image, and is imaged by the imaging unit 13 based on the contour region included in the image. An image of hair contained in the image is detected. In the present embodiment, a plurality of sample images having various lengths and various shapes are stored in advance in the storage unit 14 as hair sample images, and the hair detection unit 114 has the contour extracted by the contour region extraction unit 113. By comparing the image of the region with the sample image stored in the storage unit 14, an image having a matching degree equal to or higher than a threshold value is detected as a hair image.

毛髪検出部114による検出結果は、検出結果出力部115により出力される。具体的には、毛髪検出部114により毛髪が検出された場合に、検出結果出力部115は、音声出力部15を介して警告音を出力させる。ただし、警告音に限らず、検出結果出力部115から出力される信号に基づいて、コンベア1が停止されたり、ランプ(図示せず)が点灯又は点滅されたりするような構成であってもよい。   The detection result by the hair detection unit 114 is output by the detection result output unit 115. Specifically, when hair is detected by the hair detection unit 114, the detection result output unit 115 outputs a warning sound via the audio output unit 15. However, not only the warning sound but also a configuration in which the conveyor 1 is stopped or a lamp (not shown) is lit or blinked based on a signal output from the detection result output unit 115 may be used. .

毛髪検出部114による検出結果は、サーバ(図示せず)に送信されてもよい。サーバには、検出結果だけでなく、得られた画像が保存されることにより、生産履歴として蓄積されてもよい。モバイル端末10からサーバへのデータ送信は、モバイル端末10に備えられた無線通信機能を用いて行うことができる。   The detection result by the hair detection unit 114 may be transmitted to a server (not shown). In the server, not only the detection result but also the obtained image may be stored and accumulated as a production history. Data transmission from the mobile terminal 10 to the server can be performed using a wireless communication function provided in the mobile terminal 10.

図3Aは、撮影部13により撮影された画像の一例である。図3Bは、図3Aの画像から輪郭領域抽出部113が輪郭領域を抽出することにより得られた画像の一例である。図3Cは、図3Bの画像に基づいて毛髪検出部114が毛髪の画像を検出するための処理を行った画像の一例である。図4Aは、撮影部13により撮影された画像の他の例である。図4Bは、図4Aの画像から輪郭領域抽出部113が輪郭領域を抽出することにより得られた画像の一例である。図4Cは、図4Bの画像に基づいて毛髪検出部114が毛髪の画像を検出するための処理を行った画像の一例である。図5Aは、撮影部13により撮影された画像のさらに他の一例である。図5Bは、図5Aの画像から輪郭領域抽出部113が輪郭領域を抽出することにより得られた画像の一例である。図5Cは、図5Bの画像に基づいて毛髪検出部114が毛髪の画像を検出するための処理を行った画像の一例である。   FIG. 3A is an example of an image photographed by the photographing unit 13. FIG. 3B is an example of an image obtained by the contour region extraction unit 113 extracting a contour region from the image of FIG. 3A. FIG. 3C is an example of an image obtained by performing processing for detecting the hair image by the hair detection unit 114 based on the image of FIG. 3B. FIG. 4A is another example of an image photographed by the photographing unit 13. FIG. 4B is an example of an image obtained by the contour region extraction unit 113 extracting a contour region from the image of FIG. 4A. FIG. 4C is an example of an image obtained by performing processing for detecting the hair image by the hair detection unit 114 based on the image of FIG. 4B. FIG. 5A is still another example of an image photographed by the photographing unit 13. FIG. 5B is an example of an image obtained by the contour region extraction unit 113 extracting a contour region from the image of FIG. 5A. FIG. 5C is an example of an image obtained by performing processing for detecting the hair image by the hair detection unit 114 based on the image of FIG. 5B.

図3B、図4B及び図5Bに示すように、輪郭領域抽出部113により輪郭領域を抽出したときには、毛髪の輪郭領域を抽出することができるが、毛髪以外の輪郭領域も抽出されてしまう。このような画像に対して、毛髪検出部114が毛髪以外の画素を取り除く処理を行うことにより、図3C、図4C及び図5Cに示すように毛髪の画像が判別しやすくなり、当該画像に基づいて毛髪の画像が検出される。   As shown in FIGS. 3B, 4B, and 5B, when the contour region is extracted by the contour region extraction unit 113, the contour region of the hair can be extracted, but the contour region other than the hair is also extracted. The hair detection unit 114 performs a process of removing pixels other than the hair on such an image, so that the hair image can be easily identified as shown in FIGS. 3C, 4C, and 5C. And an image of the hair is detected.

以上のように、本実施形態では、撮影部13により撮影された画像に対して、二値化処理が行われるのではなく、画像中の注目領域と当該注目領域に対する周辺領域とのコントラスト(差)が算出されることにより、そのコントラストに基づいて、撮影された画像に含まれる毛髪の画像が検出される。これにより、絶対値ではなく相対値を用いて毛髪の画像を検出することができるため、食品F中の毛髪をより正確に検出することができる。   As described above, in this embodiment, the binarization process is not performed on the image captured by the imaging unit 13, but the contrast (difference) between the attention area in the image and the surrounding area with respect to the attention area. ) Is calculated, the hair image included in the photographed image is detected based on the contrast. Thereby, since the image of hair can be detected using a relative value rather than an absolute value, the hair in the food F can be detected more accurately.

特に、本実施形態では、RGB及びHSVに含まれる少なくとも1つの要素について、画像中の注目領域と当該注目領域に対する周辺領域とのコントラストが算出される。これらの要素は、人間が目からの情報を処理する際の重要な要素であるため、当該要素を用いることによって、食品F中の毛髪をより正確に検出することができる。   In particular, in the present embodiment, for at least one element included in RGB and HSV, the contrast between the attention area in the image and the peripheral area with respect to the attention area is calculated. Since these elements are important elements when humans process information from the eyes, the hair in the food F can be detected more accurately by using the elements.

また、本実施形態では、食品種別入力受付部111により入力が受け付けられた検査対象となる食品の種別に応じて、RGB及びHSVに含まれる少なくとも1つの要素を適切に選択し、その要素を用いて食品F中の毛髪をより正確に検出することができる。例えば、食品Fの種別が赤い肉である場合には、青(B)の要素を用いることにより、食品F中の毛髪をより正確に検出することができる。   Further, in the present embodiment, at least one element included in RGB and HSV is appropriately selected according to the type of food to be inspected whose input is received by the food type input receiving unit 111, and the element is used. Thus, the hair in the food F can be detected more accurately. For example, when the type of the food F is red meat, the hair in the food F can be detected more accurately by using the blue (B) element.

さらに、本実施形態では、輪郭領域の画像が毛髪のサンプル画像と比較されることにより、撮影された画像に含まれる毛髪の画像が検出される。人間は、自らの記憶との対比によって毛髪を認識するため、本実施形態によれば、人間の認識方法と同様の処理を用いて食品F中の毛髪をより正確に検出することができる。   Furthermore, in this embodiment, the image of the hair included in the photographed image is detected by comparing the image of the contour region with the sample image of the hair. Since humans recognize hair by contrast with their own memory, according to the present embodiment, it is possible to more accurately detect hair in food F using the same process as the human recognition method.

図6は、制御部11による処理の流れを示したフローチャートである。食品F中の毛髪を検出する際には、まず、撮影部13により食品Fの画像が撮影される(ステップS101:撮影ステップ)。そして、撮影された画像中の注目領域と当該注目領域に対する周辺領域とのコントラストが算出され(ステップS102:コントラスト演算ステップ)、算出されたコントラストが閾値以上の注目領域が輪郭領域として抽出される(ステップS103:輪郭領域抽出ステップ)。   FIG. 6 is a flowchart showing the flow of processing by the control unit 11. When detecting hair in the food F, first, an image of the food F is photographed by the photographing unit 13 (step S101: photographing step). Then, the contrast between the attention area in the photographed image and the surrounding area with respect to the attention area is calculated (step S102: contrast calculation step), and the attention area whose calculated contrast is equal to or greater than the threshold is extracted as a contour area ( Step S103: contour region extraction step).

その後、抽出された輪郭領域のうち毛髪以外の輪郭領域に対応する画素が取り除かれ(ステップS104)、得られた画像に対して平滑化処理が行われる(ステップS105)。これにより、毛髪の画像が判別しやすくなり、記憶部14に記憶されているサンプル画像との比較によって、撮影部13により撮影された画像に含まれる毛髪の画像が検出される(ステップS106)。   Thereafter, the pixels corresponding to the contour region other than the hair in the extracted contour region are removed (step S104), and the obtained image is subjected to smoothing processing (step S105). Thereby, it becomes easy to discriminate | determine the image of hair, and the image of the hair contained in the image image | photographed by the imaging | photography part 13 is detected by the comparison with the sample image memorize | stored in the memory | storage part 14 (step S106).

上記ステップS104〜S106の処理は、毛髪検出ステップを構成している。この毛髪検出ステップによる検出結果が音声出力部15などを介して出力されることにより(ステップS107)、食品F中に毛髪が含まれている場合には、その旨が作業者に報知されることとなり、そのまま食品Fが出荷されることを未然に防止できる。   The process of said step S104-S106 comprises the hair detection step. The detection result of this hair detection step is output via the audio output unit 15 or the like (step S107), and if the food F contains hair, the operator is notified of that fact. Thus, it is possible to prevent the food F from being shipped as it is.

図7は、制御部11による処理の第1変形例を示したフローチャートである。この例におけるステップS201〜S204までの処理は、図6のステップS101〜S104までの処理と同様であるため、詳細な説明を省略する。   FIG. 7 is a flowchart showing a first modification of the processing by the control unit 11. Since the process from step S201 to S204 in this example is the same as the process from step S101 to S104 in FIG. 6, detailed description thereof is omitted.

この例では、抽出された輪郭領域のうち毛髪以外の輪郭領域に対応する画素が取り除かれた後(ステップS204)、得られた画像における輪郭領域の画像の直線性に基づいて、撮影部13により撮影された画像に含まれる毛髪の画像が検出される(ステップS205)。直線性とは、直線に近いか否かを意味しており、直線又は滑らかな曲線の線分は直線性が高い(直線に近い)。例えば、輪郭領域の画像における曲率半径が最も小さい部分について、その曲率半径が所定の閾値以上であれば、当該輪郭領域の画像は直線に近い(直線性が高い)。すなわち、輪郭領域の直線度が算出され、その直線度が閾値と比較されることにより、輪郭領域の画像が直線に近ければ毛髪と判断され、直線に近くなければ毛髪以外の画像と判断される。ただし、このような方法に限らず、例えば直線性が高い画像を複数記憶しておき、これらの画像と得られた輪郭領域の画像との比較(パターンマッチング)によって、毛髪の画像を検出してもよい。   In this example, after the pixels corresponding to the contour region other than the hair are removed from the extracted contour region (step S204), based on the linearity of the image of the contour region in the obtained image, the photographing unit 13 An image of hair included in the photographed image is detected (step S205). The linearity means whether or not it is close to a straight line, and a straight line or a smooth curved line segment has high linearity (close to a straight line). For example, if the radius of curvature of the contour region image having the smallest curvature radius is equal to or greater than a predetermined threshold value, the contour region image is close to a straight line (high linearity). That is, the straightness of the contour region is calculated, and the straightness is compared with a threshold value, so that if the image of the contour region is close to a straight line, it is determined as hair, and if it is not close to a straight line, it is determined as an image other than hair. . However, the present invention is not limited to this method. For example, a plurality of images with high linearity are stored, and the image of the hair is detected by comparing these images with the image of the obtained contour region (pattern matching). Also good.

上記ステップS204及びS205の処理は、毛髪検出ステップを構成している。この毛髪検出ステップによる検出結果が音声出力部15などを介して出力されることにより(ステップS206)、食品F中に毛髪が含まれている場合には、その旨が作業者に報知されることとなり、そのまま食品Fが出荷されることを未然に防止できる。   The processes in steps S204 and S205 constitute a hair detection step. The detection result of this hair detection step is output via the audio output unit 15 or the like (step S206), and when the food F contains hair, the operator is notified of that fact. Thus, it is possible to prevent the food F from being shipped as it is.

この例では、輪郭領域の画像が直線に近いか否かに基づいて、撮影された画像に含まれる毛髪の画像が検出される。人間は、輪郭領域が直線に近い場合は毛髪である可能性が高いと認識する傾向があるため、本実施形態によれば、人間の認識方法と同様の処理を用いて食品中の毛髪をより正確に検出することができる。   In this example, an image of hair included in the captured image is detected based on whether or not the image of the contour region is close to a straight line. Since humans tend to recognize that there is a high possibility of being hair when the contour region is close to a straight line, according to this embodiment, hair in food is more processed using a process similar to the human recognition method. It can be detected accurately.

図8は、制御部11による処理の第2変形例を示したフローチャートである。この例におけるステップS301〜S304までの処理は、図6のステップS101〜S104までの処理と同様であるため、詳細な説明を省略する。   FIG. 8 is a flowchart showing a second modification of the process by the control unit 11. Since the process from step S301 to S304 in this example is the same as the process from step S101 to S104 in FIG. 6, detailed description thereof is omitted.

この例では、抽出された輪郭領域のうち毛髪以外の輪郭領域に対応する画素が取り除かれた後(ステップS304)、得られた画像における輪郭領域の画像の画素数がカウントされる(ステップS305)。このようにしてカウントされた輪郭領域の画像の画素数は、画像の周囲長Lに相当する。そして、輪郭領域の内側の画素数がカウントされる(ステップS306)。ステップS305でカウントされた輪郭領域の画素数と、ステップS306でカウントされた輪郭領域の内側の画素数との和は、画像の面積Sに相当する。その後、画像の周囲長Lと面積Sの比(L/S)が閾値と比較されることにより、撮影部13により撮影された画像に含まれる毛髪の画像が検出される(ステップS307)。すなわち、L/Sの値が閾値以上であれば毛髪と判断され、閾値未満であれば毛髪以外の画像と判断される。   In this example, after the pixels corresponding to the contour region other than the hair are removed from the extracted contour region (step S304), the number of pixels in the contour region in the obtained image is counted (step S305). . The number of pixels of the contour region image thus counted corresponds to the peripheral length L of the image. Then, the number of pixels inside the contour region is counted (step S306). The sum of the number of pixels in the contour area counted in step S305 and the number of pixels inside the contour area counted in step S306 corresponds to the area S of the image. Thereafter, the ratio (L / S) of the peripheral length L to the area S of the image is compared with the threshold value, thereby detecting the hair image included in the image photographed by the photographing unit 13 (step S307). That is, if the value of L / S is equal to or greater than the threshold value, it is determined as hair, and if it is less than the threshold value, it is determined as an image other than hair.

上記ステップS304〜S307の処理は、毛髪検出ステップを構成している。この毛髪検出ステップによる検出結果が音声出力部15などを介して出力されることにより(ステップS308)、食品F中に毛髪が含まれている場合には、その旨が作業者に報知されることとなり、そのまま食品Fが出荷されることを未然に防止できる。   The processing of steps S304 to S307 constitutes a hair detection step. The detection result of this hair detection step is output via the audio output unit 15 or the like (step S308), and when the food F contains hair, the operator is notified of that fact. Thus, it is possible to prevent the food F from being shipped as it is.

この例では、画像の周囲長Lと面積Sの比(L/S)が大きいか否かに基づいて、撮影された画像に含まれる毛髪の画像が検出される。人間は、L/Sの値が大きい場合は毛髪である可能性が高いと認識する傾向があるため、本実施形態によれば、人間の認識方法と同様の処理を用いて食品中の毛髪をより正確に検出することができる。   In this example, an image of hair included in the photographed image is detected based on whether or not the ratio (L / S) of the peripheral length L to the area S of the image is large. Since humans tend to recognize that there is a high possibility of being hair when the value of L / S is large, according to this embodiment, hair in food is treated using a process similar to the human recognition method. More accurate detection is possible.

以上の実施形態では、モバイル端末10に備えられた制御部11及び撮影部13を用いて食品F中の毛髪が検出されるような構成について説明した。しかし、モバイル端末10を用いるような構成に限らず、例えば制御部11及び撮影部13がそれぞれ個別に設けられた構成などであってもよい。   In the above embodiment, the configuration in which the hair in the food F is detected using the control unit 11 and the imaging unit 13 provided in the mobile terminal 10 has been described. However, the configuration is not limited to using the mobile terminal 10, and for example, a configuration in which the control unit 11 and the imaging unit 13 are individually provided may be used.

また、以上の実施形態では、コンベア1上を搬送される食品Fに対して検査が行われるような構成について説明した。しかし、コンベア1を用いるような構成に限らず、例えば作業者が食品Fを検査位置に手動でセットすることにより、その食品Fに対して検査が行われるような構成などであってもよい。   Moreover, in the above embodiment, the structure which test | inspects with respect to the food F conveyed on the conveyor 1 was demonstrated. However, the configuration is not limited to using the conveyor 1, and may be a configuration in which an inspection is performed on the food F by, for example, an operator manually setting the food F at an inspection position.

さらに、以上の実施形態では、食品Fに対する検査が自動で行われるような食品検査システムについて説明したが、作業者が手動で食品Fに対する検査を行うような構成においても本発明を適用することが可能である。   Further, in the above embodiment, the food inspection system in which the inspection for the food F is automatically performed has been described. However, the present invention can be applied to a configuration in which the operator manually inspects the food F. Is possible.

1 コンベア
2 ハウジング
3 照明
10 モバイル端末
11 制御部
12 操作部
13 撮影部
14 記憶部
15 音声出力部
111 食品種別入力受付部
112 コントラスト演算部
113 輪郭領域抽出部
114 毛髪検出部
115 検出結果出力部
F 食品
T トレー
W ラップ
DESCRIPTION OF SYMBOLS 1 Conveyor 2 Housing 3 Illumination 10 Mobile terminal 11 Control part 12 Operation part 13 Image | photographing part 14 Memory | storage part 15 Audio | voice output part 111 Food type input reception part 112 Contrast calculation part 113 Contour area extraction part 114 Hair detection part 115 Detection result output part F Food T Tray W Wrap

Claims (8)

食品中の毛髪を検出するための食品検査システムであって、
食品の画像を撮影する撮影部と、
前記撮影部により撮影された画像中の注目領域と当該注目領域に対する周辺領域とのコントラストを算出するコントラスト演算部と、
前記コントラスト演算部により算出されたコントラストに基づいて、前記撮影部により撮影された画像に含まれる毛髪の画像を検出する毛髪検出部とを備えることを特徴とする食品検査システム。
A food inspection system for detecting hair in food,
A shooting section for taking images of food;
A contrast calculation unit that calculates a contrast between a region of interest in the image captured by the imaging unit and a peripheral region with respect to the region of interest;
A food inspection system comprising: a hair detection unit that detects a hair image included in an image photographed by the photographing unit based on the contrast calculated by the contrast computing unit.
前記コントラスト演算部は、赤(R)、緑(G)、青(B)、色相(H)、彩度(S)及び明度(V)のうち少なくとも1つの要素について、注目領域と当該注目領域に対する周辺領域とのコントラストを算出することを特徴とする請求項1に記載の食品検査システム。   The contrast calculation unit includes a region of interest and a region of interest for at least one element among red (R), green (G), blue (B), hue (H), saturation (S), and brightness (V). The food inspection system according to claim 1, wherein a contrast with a peripheral region is calculated. 検査対象となる食品の種別の入力を受け付ける食品種別入力受付部をさらに備え、
前記コントラスト演算部は、前記食品種別入力受付部により入力が受け付けられた食品の種別に応じて選択される前記少なくとも1つの要素について、注目領域と当該注目領域に対する周辺領域とのコントラストを算出することを特徴とする請求項2に記載の食品検査システム。
A food type input receiving unit that receives an input of the type of food to be inspected;
The contrast calculation unit calculates a contrast between a region of interest and a surrounding region with respect to the region of interest for the at least one element selected according to the type of food received by the food type input receiving unit. The food inspection system according to claim 2.
前記コントラスト演算部により算出されたコントラストが閾値以上の注目領域を輪郭領域として抽出する輪郭領域抽出部をさらに備え、
前記毛髪検出部は、前記輪郭領域抽出部により抽出された輪郭領域に基づいて、前記撮影部により撮影された画像に含まれる毛髪の画像を検出することを特徴とする請求項1〜3のいずれかに記載の食品検査システム。
A contour region extraction unit that extracts a region of interest whose contrast calculated by the contrast calculation unit is a threshold value or more as a contour region;
The said hair detection part detects the image of the hair contained in the image image | photographed by the said imaging | photography part based on the outline area | region extracted by the said outline area | region extraction part. The food inspection system described in Crab.
毛髪のサンプル画像を記憶するサンプル画像記憶部をさらに備え、
前記毛髪検出部は、前記輪郭領域抽出部により抽出された輪郭領域の画像を、前記サンプル画像記憶部に記憶されているサンプル画像と比較することにより、前記撮影部により撮影された画像に含まれる毛髪の画像を検出することを特徴とする請求項4に記載の食品検査システム。
A sample image storage unit for storing a sample image of hair;
The hair detection unit is included in the image photographed by the photographing unit by comparing the image of the contour region extracted by the contour region extraction unit with the sample image stored in the sample image storage unit. The food inspection system according to claim 4, wherein an image of hair is detected.
前記毛髪検出部は、前記輪郭領域抽出部により抽出された輪郭領域の画像の直線性に基づいて、前記撮影部により撮影された画像に含まれる毛髪の画像を検出することを特徴とする請求項4に記載の食品検査システム。   The hair detection unit detects an image of hair included in an image photographed by the photographing unit based on linearity of an image of the contour region extracted by the contour region extraction unit. 4. The food inspection system according to 4. 前記毛髪検出部は、前記輪郭領域抽出部により抽出された輪郭領域の画像の画素数及び輪郭領域の内側の画素数に基づいて、前記撮影部により撮影された画像に含まれる毛髪の画像を検出することを特徴とする請求項4に記載の食品検査システム。   The hair detection unit detects a hair image included in the image photographed by the photographing unit based on the number of pixels of the contour region image extracted by the contour region extraction unit and the number of pixels inside the contour region. The food inspection system according to claim 4. 食品中の毛髪を検出するための食品検査方法であって、
食品の画像を撮影する撮影ステップと、
前記撮影ステップにより撮影された画像中の注目領域と当該注目領域に対する周辺領域とのコントラストを算出するコントラスト演算ステップと、
前記コントラスト演算ステップにより算出されたコントラストに基づいて、前記撮影ステップにより撮影された画像に含まれる毛髪の画像を検出する毛髪検出ステップとを備えることを特徴とする食品検査方法。
A food inspection method for detecting hair in food,
A shooting step for shooting food images;
A contrast calculation step for calculating a contrast between a region of interest in the image photographed by the photographing step and a peripheral region with respect to the region of interest;
A food inspection method comprising: a hair detection step of detecting an image of hair included in an image photographed by the photographing step based on the contrast calculated by the contrast calculating step.
JP2015247386A 2015-12-18 2015-12-18 Food inspection system and food inspection method Active JP6715001B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015247386A JP6715001B2 (en) 2015-12-18 2015-12-18 Food inspection system and food inspection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015247386A JP6715001B2 (en) 2015-12-18 2015-12-18 Food inspection system and food inspection method

Publications (2)

Publication Number Publication Date
JP2017111085A true JP2017111085A (en) 2017-06-22
JP6715001B2 JP6715001B2 (en) 2020-07-01

Family

ID=59079500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247386A Active JP6715001B2 (en) 2015-12-18 2015-12-18 Food inspection system and food inspection method

Country Status (1)

Country Link
JP (1) JP6715001B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019131945A1 (en) * 2017-12-27 2019-07-04 キューピー株式会社 Food inspection device, food inspection method, and learning method for food reconstruction neural network of food inspection device
CN114291531A (en) * 2022-02-24 2022-04-08 深圳市扬帆威志实业有限公司 Method for controlling speed of discharging material by using mechanical conveyor belt for marinated food

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07128254A (en) * 1993-11-09 1995-05-19 Murata Mach Ltd Method for detecting fuzz
JP2007130329A (en) * 2005-11-11 2007-05-31 Matsushita Electric Works Ltd Appearance inspection method by image
JP2009115613A (en) * 2007-11-06 2009-05-28 Hitachi High-Tech Control Systems Corp Foreign matter inspecting apparatus
WO2012164441A1 (en) * 2011-05-30 2012-12-06 Koninklijke Philips Electronics N.V. Hair treatment device having a light-based hair detector
JP2015087147A (en) * 2013-10-29 2015-05-07 Ckd株式会社 Inspection apparatus and ptp packaging machine
JP2015225049A (en) * 2014-05-29 2015-12-14 株式会社日立国際電気 Inspection device and inspection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07128254A (en) * 1993-11-09 1995-05-19 Murata Mach Ltd Method for detecting fuzz
JP2007130329A (en) * 2005-11-11 2007-05-31 Matsushita Electric Works Ltd Appearance inspection method by image
JP2009115613A (en) * 2007-11-06 2009-05-28 Hitachi High-Tech Control Systems Corp Foreign matter inspecting apparatus
WO2012164441A1 (en) * 2011-05-30 2012-12-06 Koninklijke Philips Electronics N.V. Hair treatment device having a light-based hair detector
JP2015087147A (en) * 2013-10-29 2015-05-07 Ckd株式会社 Inspection apparatus and ptp packaging machine
JP2015225049A (en) * 2014-05-29 2015-12-14 株式会社日立国際電気 Inspection device and inspection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019131945A1 (en) * 2017-12-27 2019-07-04 キューピー株式会社 Food inspection device, food inspection method, and learning method for food reconstruction neural network of food inspection device
CN114291531A (en) * 2022-02-24 2022-04-08 深圳市扬帆威志实业有限公司 Method for controlling speed of discharging material by using mechanical conveyor belt for marinated food

Also Published As

Publication number Publication date
JP6715001B2 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
TWI581213B (en) Method, image processing system and computer-readable recording medium for item defect inspection
WO2019151394A1 (en) Food inspection assistance system, food inspection assistance device, and computer program
CN106022209A (en) Distance estimation and processing method based on face detection and device based on face detection
US20110069872A1 (en) Artificial vision inspection method and system
EP1987475A2 (en) Automatic detection and correction of non-red eye flash defects
JP5086970B2 (en) Wood appearance inspection device, wood appearance inspection method
JPWO2017168469A1 (en) Appearance inspection device and appearance inspection method
CN107909554B (en) Image noise reduction method and device, terminal equipment and medium
CN110717865B (en) Picture detection method and device
JP5455409B2 (en) Foreign matter sorting method and foreign matter sorting equipment
CN111122590A (en) Ceramic surface defect detection device and detection method
JP6715001B2 (en) Food inspection system and food inspection method
CN107148237B (en) Information processing apparatus, information processing method, and program
CN113781396A (en) Screen defect detection method, device, equipment and storage medium
CN106846294B (en) Visual detection method, device and equipment
CN108021914B (en) Method for extracting character area of printed matter based on convolutional neural network
CN109377493B (en) Quick identification system of propolis softgel defective products based on rule base
JP2019192169A (en) Determination device, determination method, and object determination program
JP2019203845A (en) Dirty egg detection apparatus
CN113610776A (en) Method and device for detecting defects of sandwich biscuits and storage medium
JP3311880B2 (en) Automatic detection device for fruits and vegetables injury
KR101667877B1 (en) Feature detecting method for fish image and fish identification method using feature of fish image
JP6593791B2 (en) Flame detection apparatus and flame detection method
CN112419431A (en) Method and system for detecting product color
TWI655412B (en) Light source detection system and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200608

R150 Certificate of patent or registration of utility model

Ref document number: 6715001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250