WO2019151394A1 - 食品検査補助システム、食品検査補助装置、およびコンピュータプログラム - Google Patents

食品検査補助システム、食品検査補助装置、およびコンピュータプログラム Download PDF

Info

Publication number
WO2019151394A1
WO2019151394A1 PCT/JP2019/003366 JP2019003366W WO2019151394A1 WO 2019151394 A1 WO2019151394 A1 WO 2019151394A1 JP 2019003366 W JP2019003366 W JP 2019003366W WO 2019151394 A1 WO2019151394 A1 WO 2019151394A1
Authority
WO
WIPO (PCT)
Prior art keywords
food
image
inspection
information
auxiliary information
Prior art date
Application number
PCT/JP2019/003366
Other languages
English (en)
French (fr)
Inventor
友亮 吾郷
塚本 真也
稔 間宮
Original Assignee
株式会社ニチレイフーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニチレイフーズ filed Critical 株式会社ニチレイフーズ
Priority to CN201980011140.XA priority Critical patent/CN111684268B/zh
Priority to US16/966,177 priority patent/US11830179B2/en
Priority to JP2019516024A priority patent/JP7317702B2/ja
Publication of WO2019151394A1 publication Critical patent/WO2019151394A1/ja
Priority to JP2022192930A priority patent/JP7391173B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/02Food
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/845Objects on a conveyor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • G01N2021/8893Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques providing a video image and a processed signal for helping visual decision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products

Definitions

  • Embodiments of the present invention relate to a food inspection assistance system, a food inspection assistance device, and a computer program.
  • foreign substances and defects are removed from the raw material in the sorting operation before processing the raw material.
  • foreign substances such as bones and feathers and defects such as blood clots are removed in the raw material sorting operation.
  • the introduction of equipment such as X-ray inspection equipment that assists high-precision inspection is being promoted.
  • equipment such as X-ray inspection equipment that assists high-precision inspection
  • the operator looks for the bones by visual observation or tentacles while comparing the X-ray image with the raw materials. Remove the found bone.
  • it may take time to search for the position of the bone, or the bone may be overlooked, and there is a problem in efficiency and accuracy.
  • it is necessary to remove wings and blood clots, and it is necessary to detect these with high accuracy and efficiency.
  • Embodiments of the present invention provide a food inspection auxiliary system, a food inspection auxiliary device, and a computer program that realize an accurate and quick inspection of food.
  • the food inspection assistance system includes a transport device, a sensing device, an auxiliary information generation unit, an information output device, and a control unit.
  • the transport device transports food.
  • the sensing device senses the food to be transported.
  • the auxiliary information generation unit generates the food auxiliary inspection information based on the output information of the sensing device.
  • the information output device displays the inspection auxiliary information.
  • the said control part controls the timing which displays the said test auxiliary information based on the time until the said food is conveyed to the test
  • the figure which shows an example of the food inspection assistance system which concerns on 1st Embodiment. 1 is a cross-sectional view of a photographing apparatus according to a first embodiment.
  • FIG. 1 is a diagram illustrating a configuration example of a food inspection assistance system (hereinafter, system) according to the first embodiment.
  • the system of FIG. 1 includes a food inspection auxiliary device (hereinafter referred to as inspection auxiliary device) 1, a photographing device 2 that is a sensing device, a display 3 that is an information output device, and a transport device 4.
  • inspection auxiliary device a food inspection auxiliary device
  • photographing device 2 that is a sensing device
  • display 3 that is an information output device
  • transport device 4 a transport device
  • food to be inspected (food to be inspected) is transported to the right along the paper surface at a constant speed by the transport device 4.
  • the food conveyance source side is called the upstream side
  • the conveyance direction side is called the downstream side.
  • food is placed on the transfer device 4 by a manual operation or a machine by an operator at regular time intervals or at arbitrary time intervals.
  • the sensor 23 detects that the food has entered the imaging area in the housing of the imaging device 2
  • the camera 32 captures the food.
  • One food may be photographed once, or may be photographed continuously a plurality of times (for example, 10 times per second). In the case of continuous shooting, since the food is moving along the conveyance path even during shooting, a shot image in which the position of the food is moved little by little in the shooting area is obtained.
  • the photographed image that is the output information of the photographing device 2 is sent to the inspection assisting device 1, and the inspection assisting device 1 performs a foreign object or defect detection process based on the photographed image. Specifically, after various image processing is performed on the photographed image, foreign matter or defect detection processing is performed based on the image processed image.
  • food having foreign matters or defects may be referred to as defective products, and foods having no foreign materials and defects may be referred to as non-defective products.
  • Examples of food to be inspected include chicken, pork, beef, lamb, seafood, vegetables, fruits, grains, beverages, seasonings, etc., but the type of food is not particularly limited.
  • meat such as chicken, pork, beef, and seafood
  • unheated raw meat may be the inspection target
  • heated meat may be the inspection target.
  • the food may be an unprocessed raw material, a raw fillet, or a product that has been processed in some way. That is, the degree of processing of food is not particularly limited.
  • a foreign object other than a blade for example, bone, cartilage, wood piece, feed, etc. may be detected.
  • the system When the system detects a foreign object (blade) from the image, the system identifies the position of the blade and generates inspection auxiliary information including information indicating the identified position.
  • information indicating the specified position there is data indicating the specified position.
  • frame data for example, rectangular frame data
  • the system places the generated frame data in the captured image. Thereby, an image in which the blades included in the captured image are surrounded by the frame data is generated. This is used as inspection auxiliary information.
  • the data indicating the specified position is not limited to the frame data, and may be data of an arrow indicating the specified position or data of other forms.
  • an inspection section for inspecting food is provided on the downstream side of the imaging device 2 along the conveyance path of the conveyance device 4.
  • a display 3 is arranged in the vicinity of the examination section.
  • the display 3 is an example of an information output device that displays information to an operator.
  • the information output device there is a projection device that projects information.
  • the projection apparatus include a projector that projects information with light and a beam projector that projects information with a light beam. An embodiment using a projector or a beam projector will be described later.
  • the display 3 is installed at a position where the worker can visually recognize the screen 3a of the display 3 when the worker performs the inspection in the inspection section. For example, when the operator is positioned on the near side of the drawing sheet, the display 3 is installed on the far side of the drawing sheet with the conveying device 4 in between, and the screen is directed to the operator.
  • the worker inspects the food that has been transported (appeared) to the inspection section.
  • the inspection is performed visually or with a tentacle or both.
  • the inspection auxiliary device 1 displays the inspection auxiliary information on the display 3 in accordance with the timing at which the food is conveyed to the inspection section, that is, the timing at which the food appears in the inspection section. In other words, the inspection auxiliary information is not displayed until the food appears in the inspection section.
  • inspection auxiliary information is displayed on the display 3 in synchronization with the appearance of food in the inspection section. In the figure, an image in which a foreign object (blade) is surrounded by frame data 5 is displayed on the display 3.
  • the worker inspects the food being conveyed while viewing the displayed inspection assistance information. Specifically, the position of the blade is grasped from the frame data 5, the blade is searched from the position corresponding to the frame data 5 and its vicinity, and the found blade is removed. The operator discards the removed blades, for example, in a predetermined case. Even during the inspection, since the food is moving little by little in front of the worker, the worker needs to efficiently remove the blades. In the present embodiment, by referring to the inspection auxiliary information displayed on the display 3, the operator can specify the position of the blade at high speed and can efficiently remove the blade.
  • the system may continue to display the inspection auxiliary information while the food exists in the inspection section, or may display it for a certain period of time after entering the inspection section.
  • multiple inspection support information generated for multiple shot images is displayed between the time when the food enters the inspection section and the time when the food leaves the inspection section. It may be displayed continuously (for example, displayed at regular time intervals).
  • inspection auxiliary information can be viewed as a moving image synchronized with the food to be conveyed.
  • the frame data 5 included in the auxiliary examination information displayed on the display 3 also appears to move. For this reason, the operator can search for a blade more efficiently.
  • the transport device 4 is a device that transports the food introduced by an operator or a machine on the upstream side to the downstream side.
  • various conveyor devices such as a belt conveyor, a chain conveyor, a roller conveyor, a mesh conveyor, and a gravity conveyor can be used.
  • the conveyor device is an example, and food may be transported using other transport means.
  • the foodstuff is conveyed toward the right from the left, it does not specifically limit about the direction in which foodstuff is conveyed.
  • a sensor 24 is arranged at one or both sides of the conveyance path at the entrance of the inspection section of the conveyance device 4.
  • the sensor 24 detects the passage of food. Specifically, the sensor 24 detects that the food has been transported to the inspection section.
  • the sensor 24 outputs a detection signal to the control unit 13 when the passage of food is detected.
  • Examples of the sensor 24 include a laser sensor, an infrared sensor, an ultrasonic sensor, various photoelectric sensors, an image sensor, and a weight sensor, but the type of sensor is not particularly limited.
  • a collection device 4 a is disposed downstream of the inspection section of the transport device 4.
  • the collection device 4a collects the food that has undergone the inspection.
  • the conveyance device 4 may be electrically connected to the food inspection auxiliary device 1 and may control the conveyance device 4 from the food inspection auxiliary device 1. For example, the conveyance speed, on / off of the operation, and the like may be controlled. In this embodiment, it is assumed that the transport device 4 transports at a constant speed. However, an operator can operate the operation unit provided for the transport device 4 to adjust on / off and speed. Good. In addition, you may convey to a next process (for example, cooking process) as it is, without collect
  • a next process for example, cooking process
  • the imaging device 2 illuminates the food conveyed to the imaging area in the housing with a light source and takes an image. Data of an image photographed by the photographing device 2 is sent to the inspection auxiliary device 1 and stored in the image storage unit 11.
  • Ethernet, wireless LAN, PCI Express, USB, UART, SPI, SDIO, serial port, Bluetooth (registered trademark), or the like can be used as an interface between the imaging device 2 and the inspection auxiliary device 1.
  • Ethernet, wireless LAN, PCI Express, USB, UART, SPI, SDIO, serial port, Bluetooth (registered trademark), or the like can be used. These interfaces are examples and do not preclude the use of other methods.
  • FIG. 2 is a cross-sectional view of the photographing apparatus 2.
  • the imaging device 2 includes one or more illumination units 31, a camera 32, a filter 33, and a sensor 23.
  • the imaging device 2 has a substantially rectangular parallelepiped housing, and an opening 34 for allowing food to pass through is formed in a lower portion of the housing facing the transport device 4.
  • the imaging device 2 covers a partial section of the transport device 4 from above.
  • a wall is formed on a part or all of the side surface of the housing.
  • a ceiling is formed at the top of the housing. The ceiling or wall can suppress the entry of infrared light, visible light, and the like from an external light source into the imaging region. Thereby, the imaging device 2 can selectively project light from a desired light source onto the food to be imaged.
  • the imaging device 2 does not need to be provided with a ceiling, a wall, or both.
  • the material of the ceiling and wall include stainless steel, aluminum, and resin, but the material is not particularly limited.
  • the image is taken from directly above the conveyance path, but the image may be taken from diagonally above or from a plurality of directions.
  • the illumination unit 31 is a device that emits ultraviolet rays. When the chicken wings are irradiated with ultraviolet rays, fluorescence is generated, so that the wings can be detected.
  • the illuminating unit 31 irradiates the imaging region below the imaging device 2 with ultraviolet rays.
  • two illumination units 31 are arranged.
  • the two illumination units 31 have a rectangular parallelepiped shape extending in a direction perpendicular to the paper surface.
  • the shape is not limited to this.
  • the illumination unit 31 may have a cylindrical shape.
  • the one illumination part 31 may be formed in the ring shape by one.
  • Examples of the light source in the illumination unit 31 include an ultraviolet LED, a black light, and various fluorescent lamps, but the type is not particularly limited.
  • an ultraviolet light source having a wavelength peak in the range of 365 to 400 nm As an example, an ultraviolet light source having a peak with a wavelength of 375 nm in the spectrum can be used.
  • the spectrum of the light source is not particularly limited. A light source containing not only an ultraviolet component but also a visible light component may be used.
  • the type of light source to be used may be determined according to the type of food to be inspected, the type of foreign matter or defect to be detected, and the like. For example, when detecting bone (hard bone or cartilage) as a foreign substance, X-rays can be used. In general, when a substance is irradiated with electromagnetic waves, different reactions are obtained depending on the kind of the substance. For example, the wavelength (frequency) of electromagnetic waves that are absorbed by substances, electromagnetic waves that are reflected, and electromagnetic waves that generate fluorescence are different. Therefore, it is possible to perform spectral fluorescence spectrum analysis on the food to be inspected, the foreign matter or defect to be detected, and examine the wavelength of the electromagnetic wave exhibiting a strong reaction. Spectral fluorescence spectral analysis can be performed, for example, by using a spectrofluorometer.
  • the camera 32 photographs the food irradiated with the ultraviolet rays emitted from the illumination unit 31.
  • a CMOS image sensor or a CCD image sensor is mounted inside the camera 32, and a color image including color information related to the food to be photographed can be obtained.
  • These imaging elements are examples, and imaging may be performed using different devices.
  • the lens of the camera 32 may be a fixed focus lens or a zoom lens, and the type of lens is not particularly limited.
  • An example of the resolution related to the image captured by the camera 32 is full HD (1920 ⁇ 1080 pixels), but the resolution of the captured image is not particularly limited.
  • a filter 33 is provided in front of the camera 32.
  • the camera 32 detects the fluorescence generated from the food that has been irradiated with ultraviolet rays from the illumination unit 31 via the filter 33.
  • the filter 33 is provided for facilitating identification of a foreign object from an image photographed by the camera 32.
  • the use of a green filter as the filter 33 facilitates the detection of the wing. That is, the part with a feather appears clearly and it becomes easy to distinguish from other parts of chicken.
  • the green filter is a filter that allows a wavelength in a green wavelength range (for example, an electromagnetic wave in the vicinity of a wavelength of 520 nm) to pass and blocks other wavelength ranges. In this embodiment, since a blade is detected as a foreign object, a case where a green filter is used as the filter 33 is assumed.
  • FIG. 3 (A) shows an example of an image of chicken taken without passing through a color filter. There is a part of the blade within the range surrounded by the ellipse in FIG. When FIG. 3 (A) is seen, although the color is a little thin in the part with a blade
  • FIG. 3B shows an example of an image obtained through a blue filter. In FIG. 3B as well, there is a part of the blade within the range surrounded by the white ellipse. Although the brightness around the blade is suppressed, the brightness of the portion where the blade is located is also reduced, and the blade is blurred.
  • FIG. 3C shows an example of an image photographed through a green filter.
  • the sensor 23 detects that the food is conveyed by the conveying device 4 into the housing of the photographing device 2. Specifically, it detects that food has entered the imaging region in the imaging device 2.
  • the sensor 23 is arranged at a position different from the food to be transported in a direction perpendicular to the paper surface so as not to prevent the food from passing therethrough. Examples of the sensor 23 include a laser sensor, an infrared sensor, an ultrasonic sensor, various photoelectric sensors, an image sensor, and a weight sensor, but the type of sensor is not particularly limited.
  • the display 3 is an information output device that displays information such as images and texts on the screen 3a.
  • the display 3 is connected to the inspection assistant device 1 by wire or wirelessly.
  • wireless LAN, PCI Express, USB, UART, SPI, SDIO, serial port, Bluetooth, Ethernet, and the like can be used. These interfaces are examples, and other types of interfaces may be used.
  • the display 3 for example, an LCD (liquid crystal display), a CRT (CRT), an organic EL (organic electroluminescence) display, or the like can be used, but other types of devices may be used.
  • the display 3 is arranged at a position and an orientation in which an operator who is inspecting can visually recognize the screen 3a during the inspection.
  • the screen 3a of the display 3 may be located on the front, diagonally up, diagonally left, diagonally right, or diagonally down with the transport device 4 in between when viewed from the operator.
  • the inspection auxiliary device 1 performs image processing of an image captured by the imaging device 2, detection processing of foreign matter or defect, generation processing of inspection auxiliary information including information for specifying the position of the detected foreign matter or defect, and inspection auxiliary information. Display timing control when displaying to the user.
  • the inspection auxiliary device 1 is an information processing device such as a computer that includes one or more CPUs (Central Processing Units), a storage unit, and a communication unit, and runs an OS (Operating System) and applications.
  • a part or all of the functions of the inspection auxiliary device 1 may be realized by a semiconductor circuit such as an FPGA or an ASIC or a GPU (Graphics Processing Unit).
  • the inspection auxiliary device 1 may be a physical computer, or may be realized by a virtual machine (VM), a container, or a combination thereof.
  • VM virtual machine
  • One or more physical computers, virtual computers, and containers may share the function of the inspection auxiliary device 1. It is not excluded to use a configuration in which the number of inspection auxiliary devices 1 is increased in order to improve availability and load distribution.
  • the inspection auxiliary device 1 includes an image storage unit 11, an image processing unit 12, a control unit 13, a detection processing unit 14, and an auxiliary information generation unit 15.
  • control unit 13 When the control unit 13 receives the detection signal from the sensor 23 of the photographing apparatus 2, the control unit 13 transmits a photographing instruction signal to the camera 32 of the photographing apparatus 2. That is, the control unit 13 instructs the camera 32 to shoot at the timing when the food enters the shooting angle (shooting area) of the camera 32. Thereby, automatic photography of the foodstuff conveyed is performed.
  • the image storage unit 11 includes a storage area for storing an image photographed by the camera 32 of the photographing apparatus 2.
  • the image storage unit 11 may be a volatile memory such as SRAM or DRAM, or a nonvolatile memory such as NAND, MRAM, or FRAM.
  • a storage device such as an optical disk, a hard disk, or an SSD may be used.
  • the image storage unit 11 may be built in the inspection auxiliary device 1 or may be a storage device outside the inspection auxiliary device 1. Further, the image storage unit 11 may be a removable storage medium such as an SD memory card or a USB memory.
  • the image processing unit 12 performs image processing on the captured food image.
  • the green filter is used to make the blade in the captured image clearer than other portions.
  • processing for further enhancing the blades is performed.
  • Examples of image processing include conversion to HSV color space, conversion to RGB space, or conversion to gray scale, but are not limited to a specific method.
  • the image processing unit 12 stores the image processed image in the image storage unit 11.
  • An identifier may be given to the stored image.
  • the identifier may be a number that increases by a certain value, may be a time, or may be determined by other criteria.
  • the image processing unit 12 may notify the control unit 13 of the identifier of the image subjected to image processing or the address information of the area where the image is stored. It is also possible not to perform image processing on an image photographed using a green filter. In that case, the image processing unit 12 may not be provided.
  • the control unit 13 requests the detection processing unit 14 to detect a foreign matter or a defect with respect to the image-processed image stored in the image storage unit 11.
  • the control unit 13 may read the image processed image from the image storage unit 11 and provide the read image to the detection processing unit 14, or the detection processing unit 14 may process the image processed from the image storage unit 11. It may be read directly. In this case, the control unit 13 notifies the detection processing unit 14 of the identifier of the image processed image or the address information of the area where the image is stored.
  • the image subjected to image processing is provided to the detection processing unit 14 via the control unit 13, but the image processing unit 12 may provide the image processed image to the detection processing unit 14 after executing the image processing. .
  • the detection processing unit 14 performs a foreign object or defect detection process based on the image processed image.
  • blade detection processing is performed.
  • the image is composed of a plurality of pixels, and each pixel has a value within a certain range. For example, when one pixel is expressed by 8-bit information, the pixel value has 256 gradations of 0 to 255.
  • the detection processing unit 14 specifies a blade by edge detection for the image that has been subjected to image processing. Specifically, first, an image subjected to image processing is binarized with a threshold value. That is, a binary image is generated with a pixel value equal to or greater than the threshold value set to 1 and a pixel value less than the threshold value set to 0. The relationship between 1 and 0 may be reversed. By binarization, all or most of the blades become 1, and all or most of the other portions become 0. A region where 1 is solidified is detected as a blade region.
  • FIG. 4A shows an example of a binarized image obtained by binarizing an image-processed image with a threshold value.
  • Black dots correspond to 1 pixels, and the other pixels correspond to 0 pixels.
  • On the right side of the image is a short length region 30 of pixels with a value of one. This region 30 corresponds to the blade region. In some cases, all the pixels in the region 30 are pixels having a value of 1, but there may be pixels having a partial value of 0.
  • the area 30 can be specified using, for example, clustering. For example, pixel groups having a value of 1 in which the distance between adjacent pixels on the image is within a certain range are classified into the same group, and a group including a certain number of pixels or more is specified as a blade region. Although there is one blade region here, a plurality of blade regions may be specified. Any clustering method may be used. Moreover, you may perform area
  • the auxiliary information generation unit 15 generates information indicating the position of the blade specified by the detection processing unit 14.
  • An example of such information is data that indicates the position of a blade.
  • frame data surrounding the blade is generated as the data indicating the position of the blade, but other forms of data such as data of an arrow indicating the blade may be generated.
  • the frame surrounding the blades may be, for example, a rectangle circumscribing the blades, a star shape surrounding the blades, or other shapes.
  • the color of the frame is desirably a color having a high contrast with respect to a photographed image (image photographed through a green filter) before image processing.
  • the auxiliary information generation unit 15 holds the coordinates of the generated frame data.
  • the auxiliary information generation unit 15 arranges the generated frame data at the held coordinates for the captured image.
  • the image (auxiliary image) thus obtained corresponds to an example of inspection auxiliary information.
  • the frame data may be superimposed on the photographed image to form a two-layer image, or the value of the pixel at the position corresponding to the frame data may be updated with the value of the frame data.
  • an image in which the blades of the photographed image are surrounded by the frame data is obtained.
  • the scale data may be inversely converted and the frame data may be arranged in the captured image.
  • the auxiliary information generation unit 15 may arrange information other than the frame data on the captured image. For example, since the blade is detected as a foreign object, a character or symbol representing the blade may be arranged in the vicinity of the frame data. For example, the character data “hane” may be arranged near the frame data. Further, data representing the size of the detected blade region may be arranged in the vicinity of the frame data. The size may be the size of at least one of the horizontal and vertical directions of the blade region, the area of the blade region (number of pixels), or the size category such as large / medium / small. Data representing the number of specified blade regions may be arranged. For example, when two blade regions are specified, “2” may be arranged in the captured image. In this case, there are also two frame data. Information other than that described here may be arranged.
  • FIG. 4B shows an example of inspection auxiliary information generated by the auxiliary information generation unit 15.
  • thick white line frame data is arranged, and character data “hane” is arranged in the vicinity.
  • the control unit 13 receives the inspection auxiliary information generated by the auxiliary information generation unit 15 and stores it in the internal buffer or the image storage unit 11.
  • the control unit 13 controls the display timing of the inspection auxiliary information so that the inspection auxiliary information is displayed at the timing when the food to be inspected passes through the inspection section. Specifically, when receiving the detection signal from the sensor 24, the control unit 13 reads the generated inspection auxiliary information from the internal buffer or the image storage unit 11, and transmits the read inspection auxiliary information to the display 3.
  • the display 3 displays the examination auxiliary information received from the control unit 13.
  • the control unit 13 outputs a stop instruction signal or a standby image for stopping the display of the inspection auxiliary information after a predetermined time from the transmission of the inspection auxiliary information (for example, after the time obtained by dividing the length of the inspection section by the conveyance speed). It transmits to the display 3.
  • the standby image is an image that is displayed while the worker is waiting until the food to be inspected next comes to the inspection section.
  • the control unit 13 outputs these pieces of inspection auxiliary information to the display 3 continuously (at regular time intervals).
  • the display 3 continuously displays the inspection auxiliary information as a moving image.
  • the detection signal is transmitted to the control unit 13, and the control unit 13 uses the stop signal or the standby image based on the detection signal. May be transmitted to the display 3.
  • the control unit 13 may use any method for specifying the inspection auxiliary information to be displayed this time among the plurality of inspection auxiliary information sequentially generated for a plurality of foods. For example, the oldest test auxiliary information among the test auxiliary information not yet displayed may be used as the test auxiliary information to be displayed. In this case, a flag for identifying the inspection auxiliary information that has been displayed and the inspection auxiliary information that has not yet been displayed may be set. Alternatively, inspection auxiliary information that is not displayed may be managed in a first-in first-out buffer.
  • a sequence number that increases by 1 every time the food to be imaged is changed by the imaging device 2 is assigned to the inspection auxiliary information generated for the food. Further, every time food is detected by the sensor 24, a sequence number that increases by 1 is generated. Inspection auxiliary information whose value matches the sequence number generated when detected by the sensor 24 is specified as inspection auxiliary information to be displayed this time.
  • the inspection auxiliary information generated immediately before is displayed if the food to be inspected next is transported at a moderate interval that has not yet been transported to the imaging area. You may make it do.
  • the display 3 receives the inspection auxiliary information from the control unit 13, and displays the received inspection auxiliary information (see FIG. 4B) on the screen 3a.
  • the display 3 receives a stop instruction signal from the control unit 13, the display 3 stops displaying the examination auxiliary information.
  • the standby image is displayed.
  • FIG. 5A and FIG. 5B show specific configuration examples of the system.
  • FIG. 5A is a side view of the system.
  • FIG. 5B is a plan view of the system.
  • the left side toward the paper surface is the upstream side and the right side is the downstream side.
  • the right side toward the paper surface is the upstream side
  • the left side is the upstream side. It has become.
  • FIG. 5A shows the photographing device 2, the transport device 4, the collection device 4 a, the display 3, and the food 21.
  • FIG. 5B shows the photographing device 2, the transport device 4, the collection device 4a, the display 3, the food 21, the sensor 23, the sensor 24, the inspection auxiliary device 1, and the worker 27.
  • the food (chicken) 21 arranged on the upstream side of the conveyor belt of the transport device 4 is transported to the photographing device 2.
  • the food 21 enters the imaging region below the casing of the imaging device 2, it is detected by the sensor 23 and is captured by the camera in the casing of the imaging device 2.
  • the food 21 exits the housing of the photographing device 2 and is conveyed downstream.
  • the photographed image is sent to the inspection auxiliary device 1, and the inspection auxiliary device 1 detects the blade based on the image and includes inspection auxiliary information including information for specifying the position of the detected blade (here, the chicken image).
  • Auxiliary image in which rectangular frame data 5 representing the position of the blade is superimposed is generated.
  • the inspection auxiliary device 1 When the food product 21 coming out of the casing of the photographing device 2 is detected by the sensor 24, the inspection auxiliary device 1 outputs the generated inspection auxiliary information to the display 3.
  • the display 3 is supported by the arm member 28 so that the screen is perpendicular to the floor along one side surface of the transport device 4.
  • the display 3 displays the inspection auxiliary information input from the inspection auxiliary device 1 on the screen 3a.
  • the worker 27 inspects the food 21 that has been transported to the inspection section visually or with tentacles or both. During the inspection, the food 21 may remain on the transport device 4 or the food 21 may be lifted from the transport device 4 by hand.
  • the operator 27 refers to the inspection auxiliary information displayed on the display 3 and searches for the feathers from the food 21 while confirming the position and size of the frame data 5. The operator removes the found blade. After the blades are removed, the food is transported downstream of the inspection section by the transport device 4 and recovered by the recovery device 4a.
  • FIG. 6 is a flowchart of an example of the operation according to the embodiment of the present invention.
  • the sensor 23 detects that the food to be inspected has entered the imaging region of the imaging device 2 (step S101)
  • the sensor 23 sends a detection signal to the control unit 13.
  • the control unit 13 outputs a shooting instruction signal to the camera 32.
  • the camera 32 images food through the green filter, and the control unit 13 stores the captured image in the image storage unit 11 (S102).
  • the image processing unit 12 performs image processing on the captured image (S103).
  • the detection processing unit 14 performs foreign object detection processing using edge detection based on the image after image processing (S104).
  • a blade is detected as a foreign object.
  • an image subjected to image processing is binarized with a threshold value to generate a binarized image.
  • 1 (or 0) pixel region is specified as a blade region.
  • the auxiliary information generation unit 15 generates information representing the specified blade region (S105). For example, frame data surrounding the blade is generated, and an image (inspection auxiliary information) in which the frame data is arranged in the captured image is generated.
  • the control unit 13 receives the generated inspection auxiliary information, and displays the inspection auxiliary information on the display 3 at a timing when the food is transported through the inspection section (S106).
  • these pieces of examination auxiliary information are continuously output and displayed while sequentially switching these pieces of examination auxiliary information.
  • the food and the inspection auxiliary information displayed on the display 3 appear to move as a moving image in accordance with the movement of the food on the conveyance path.
  • the foreign substance region is specified by edge detection for the binarized image, but another method may be used.
  • a photographed image or an image after image processing may be used as a model input, and information on the position or area of a foreign object may be output from the model.
  • a model is constructed by machine learning using, as learning data, data associating a sample image (captured image or image after image processing) with the position or area of a foreign object.
  • An example of a model is a neural network.
  • the sensor 24 detects that the food has been conveyed to the inspection section, but it may be detected by another method.
  • the timing at which the food appears in the inspection section may be calculated based on the conveyance speed of the food and the distance from the food photographing position (or the detection position of the sensor 23) to the inspection section. Any method may be used as long as it detects that the food is transported to the inspection section based on the time until the food is transported to the inspection section.
  • the region of the blade is specified using the binarized image.
  • the auxiliary information generation unit 15 generates information indicating that there is no blade (food is a non-defective product) as inspection auxiliary information. For example, character data “NO Hane” or “GOOD” is generated. By checking this information on the display 3, the operator can determine that there are no blades in the food to be inspected, and can therefore omit the task of searching for the blades.
  • the inspection assistant device 1 determines that a defective product is detected when a blade is detected and a non-defective product when no blade is detected, and generates information indicating whether the product is defective or non-defective as inspection auxiliary information. May be.
  • the operator collects only the food on which the information on the non-defective product is displayed in the collecting device 4a, and picks up the food judged to be defective from the transport device 4 and collects it in another container.
  • a sorting device that automatically sorts foods according to non-defective products or defective products may be installed on the transport device 4, and the sorting device may automatically sort the food. In this case, the sorting device receives determination result information indicating whether the product is a non-defective product or a defective product from the inspection auxiliary device 1, and performs sorting based on the received determination result information.
  • blood is detected as a defect from food.
  • the blood texture includes not only coloring caused by bruises in meat and blood clumps, but also coloring parts that differ from other parts in color, flavor, and the like.
  • Other examples of defects include those related to shapes such as chips, cracks, and twists.
  • the system configuration is basically the same as in the first embodiment. Hereinafter, differences from the first embodiment will be described.
  • FIG. 7 shows an example of an image taken of chicken according to the present embodiment. Blood is contained in the circled area. In this embodiment, such blood is detected as a defect in food (chicken).
  • FIG. 8 is a cross-sectional view of the photographing apparatus 51 according to the present embodiment.
  • a photographing device 51 is used instead of the photographing device 2 of FIG.
  • the imaging device 51 includes one or more illumination units 52, a polarizing plate 53, a camera 55, a polarizing plate 56, and a sensor 23.
  • the imaging device 51 has a substantially rectangular parallelepiped housing, and an opening 54 through which food passes is formed in a lower portion facing the transport device 4 of the housing. Since the specific configuration of the housing is the same as that of the first embodiment, the description thereof is omitted.
  • the illumination unit 52 is an illumination device using, for example, a white LED.
  • a plurality of illumination units 52 are provided, and the left and right illumination units 52 have a shape extending in the vertical direction along the paper surface.
  • the central illumination unit 52 one or a plurality of illumination units extending in the left-right direction along the paper surface are arranged at intervals along the paper surface.
  • the camera 55 captures the light passing through this interval via the polarizing plate 56.
  • the white LED is an example, and an LED having a different color may be used as the light source.
  • you may comprise a light source combining LED of several colors, such as red, green, and blue.
  • other light sources such as an electroluminosense lamp, an HID lamp, a fluorescent lamp, and an incandescent lamp may be used.
  • the type of light source to be used can be determined according to the type of food or foreign matter to be detected.
  • the light source is not limited to the one that emits visible light, but may be one that emits infrared rays, ultraviolet rays, or the like, or a combination of light sources related to a plurality of wavelengths (multi-wavelength).
  • a polarizing plate 53 is provided on the front surface of the illumination unit 52.
  • the polarizing plate 53 is, for example, a linear polarizing plate.
  • irregular reflection of light due to the surface of the transport device 4 water or fats and oils of food is suppressed, and contributes to accurate photographing of food by the camera 55.
  • a configuration without the polarizing plate 53 is also possible.
  • the camera 55 photographs the food illuminated by the light emitted from the illumination unit 52.
  • a polarizing plate 56 is also provided on the front surface of the camera 55.
  • the polarizing plate 56 is a polarizing filter for a camera lens.
  • the image processing unit 12 extracts the luminance of each color of red, green, and blue (RGB) in the pixels in the captured image, which is output information of the imaging device 51, and obtains an image for each color. Then, an image is generated by subtracting the pixel value of the green (G) image for each pixel from the red (R) image. The image generated in this way is binarized using a threshold value as in the first embodiment to generate a binarized image.
  • RGB red, green, and blue
  • FIG. 9 shows a specific example of image processing.
  • the captured image 61 is separated into an R image 62, a G image 63, and a B image 64.
  • An image (RG image) is generated by subtracting the pixel value of the G image 63 from the pixel value of the R image 62.
  • a binarized image 65 is generated by binarizing the generated image.
  • the captured image 61 is a color image
  • the images 62 to 64 are gray scale images each representing the magnitude of luminance according to RGB.
  • the binarized image 65 pixels whose pixel values are equal to or greater than the threshold value are white, and pixels whose pixel values are less than the threshold value are black.
  • a pixel region having a pixel value equal to or greater than the threshold corresponds to a bloody part.
  • the detection processing unit 14 can specify the blood region (the white region of the binarized image 65) by performing edge detection on the binarized image 65 in the same manner as in the first embodiment.
  • the above image processing is an example, and other image processing may be performed.
  • a process of emphasizing red and green may be performed on the captured image, and then the processed captured image may be separated into an R image, a G field image, and a B image.
  • the converted image (RG image) may be converted (for example, converted into the HSV color space) to generate an image in which only the red component is extracted from the converted image.
  • An image obtained by extracting only the red component from the RG image may be generated without converting the RG image. Note that it is not excluded to perform the binarization process on the captured image without performing any image processing on the captured video.
  • the auxiliary information generation unit 15 generates examination auxiliary information including information for specifying the position of blood clot, as in the first embodiment. For example, frame data surrounding the blood region is generated based on the binarized image, and the generated frame data is arranged in the captured video. Character data such as “chiai” may be arranged in the vicinity of the frame data. The image (auxiliary image) generated in this way is displayed on the display 3 as inspection auxiliary information.
  • the display timing control is the same as in the first embodiment. The worker inspects the food carried into the inspection section while confirming the position of blood clots with reference to the frame data of the inspection auxiliary information displayed on the display 3. If a blood clot is found, the blood is removed using a predetermined instrument.
  • the operator confirms blood contact, and if the blood contact level is acceptable (such as small), the food is collected as it is, and if it is unacceptable, a predetermined case is obtained.
  • the work of removing the blood clot may be performed in a separate process. Other methods may be used to deal with chicken with detected blood clots.
  • an RG image is generated as image processing, and a binarized image is generated from the RG image (see FIG. 9).
  • an infrared (INFRARED) image is taken in addition to a color image, and an image is generated by subtracting the pixel value of the G image from the pixel value of the infrared image.
  • a specific example of the infrared image is a near infrared image.
  • Near-infrared rays are electromagnetic waves having a wavelength of 760 nm to 1000 nm as an example.
  • a near-infrared image is taken, and an image (NIR-G image) is generated by subtracting the pixel value of the G image from the pixel value of the near-infrared image. Further, the NIR-G image is binarized to generate a binarized image. A foreign object or a defect is detected using this binarized image. Thereby, the detection accuracy of dark blood (for example, blood with strong blackness) can be improved.
  • a camera capable of photographing color images and near-infrared images is used as the camera 55.
  • a camera capable of photographing color images and near-infrared images
  • both an RGB camera and an infrared camera may be used.
  • a multispectral camera or a hyperspectral camera having a larger number of wavelengths that can be captured may be used.
  • shooting may be performed simultaneously or sequentially. In the latter case, the subsequent image processing unit 12 may perform image alignment when performing image subtraction processing.
  • the color image and near-infrared image of food (chicken) taken by the camera 55 are sent to the image storage unit 11.
  • the image storage unit 11 stores a color image and a near infrared image therein.
  • the image processing unit 12 reads a color image from the image storage unit 11, extracts the luminance of each color of red, green, and blue (RGB) from the color image, and extracts an R image (red image) 131 and a G image (green image) 132. And B image (blue image) 133 are generated.
  • FIG. 10 shows examples of the R image 131, the G image 132, and the B image 133 generated by the image processing unit 12. Further, FIG. 4 shows an example of a near infrared image 134 stored in the image storage unit 11.
  • the intensity of the electromagnetic wave having the corresponding wavelength is displayed in grayscale gradation (luminance). The higher the intensity, the brighter the pixel. The smaller the intensity, the darker the pixel.
  • the meat portion is exposed brighter than the surroundings.
  • a sample with only dark bloody blood is used.
  • the image processing unit 12 generates an image (NIR-G image) obtained by subtracting the pixel value of the G image 132 from the near infrared image 134 for each pixel, that is, a difference image between the near infrared image 134 and the G image 132.
  • the image processing unit 12 binarizes the NIR-G image to generate a binarized image (NIR-G binarized image) 135. The details of the binarization process are as described above.
  • NIR-G binarized image 135 generated by the image processing unit 12 is shown on the upper side of FIG. Also, on the lower side of FIG. 11, a binarized image (RG binary image) obtained by binarizing an image (RG image) obtained by subtracting the pixel value of the G image 132 from the R image 131 for each pixel.
  • An example of a (valued image) 136 is shown.
  • the RG image corresponds to a difference image between the R image 131 and the G image 132.
  • the RG binarized image 136 is shown for comparison with the NIR-G binarized image 135, and it is not essential to generate the RG binarized image 136 in this modification.
  • pixels whose pixel values are greater than or equal to the threshold are white, and pixels less than the threshold are black.
  • a pixel region having a pixel value equal to or greater than the threshold corresponds to a bloody part.
  • pixels of bloody portions with strong blackness are detected in a circled region 139, but as shown in a circled region 138, as shown in FIG.
  • many noise components appear in places where there is no blood. This is because the threshold used when generating the RG binarized image 136 is lowered in order to detect bloody blood with strong blackness.
  • the region of the RG binarized image 136 is detected while detecting pixels of bloody portions with strong blackness in the circled region 137.
  • the noise component does not appear so much. This is because black blood spots can be emphasized in the NIR-G image, and it is not necessary to lower the threshold for generating the NIR-G binarized image 135 as in the RG binarized image 136. is there. That is, the threshold value is set higher in the NIR-G binarized image 135 than in the RG binarized image 136.
  • the NIR-G binarized image 135 it is possible to achieve both reduction of noise components and improvement of detection accuracy of bloody blood with strong blackness.
  • another image may be used instead of the near-infrared image.
  • an image of an infrared ray other than the near infrared ray (far infrared ray or the like), an ultraviolet ray image, or a three-dimensional image may be used.
  • the other near-infrared image can be taken using, for example, a camera provided with a sensor having sensitivity to other infrared rays.
  • an ultraviolet image can be taken using a camera equipped with a sensor sensitive to ultraviolet rays.
  • a three-dimensional image can be taken using a 3D camera.
  • the calculation (subtraction) between the near-infrared image and the G image is performed, but the combination of the images to be calculated is not limited to the combination of the near-infrared image and the G image. That is, as long as the foreign matter or defect to be detected can be detected with high accuracy, an arbitrary set of images can be set as a calculation target. For example, two or more images selected from a near-infrared image, another infrared image, an ultraviolet image, a three-dimensional image, an R image, a G image, and a B image can be calculated.
  • the type of operation is not limited to subtraction, but may be addition, subtraction, multiplication, division, or a combination of these. Further, the image may be multiplied by a weighting factor before performing the calculation.
  • the display 3 is used as an information output device that outputs inspection auxiliary information.
  • inspection auxiliary information is conveyed using a projector that is an example of a projection device. Project on the food to be transported or the transport path.
  • FIG. 12 shows an example of a food inspection assistance system according to the third embodiment.
  • the display 3 in FIG. 1 replaces the projector 71.
  • the projector 71 is provided above the conveyance path in the inspection section, and projects inspection auxiliary information toward the conveyance surface.
  • Other configurations are basically the same as those in the first embodiment. Below, it demonstrates centering on the part changed or expanded from 1st Embodiment.
  • FIG. 13A shows an example of continuous shooting by the shooting device 2.
  • the chicken (food) 21 is being transported by the transport device 4 and enters the photographing region 81 in the photographing device 2, photographing is performed a plurality of times (continuous photographing of still images) at regular time intervals.
  • a total of three times is performed at time t11, time t12, and time t13 is shown. Since the food is moving even during a plurality of times of photographing, the position of the food in the photographed image is gradually moved in the transport direction.
  • the image is taken three times, but the number and rate of photographing can be arbitrarily determined, such as ten times per second.
  • FIG. 14 shows an example of continuously shot images.
  • 14A is the first captured image 91 at time t11
  • FIG. 14B is the second captured image 92 at time t12
  • FIG. 14C is the third captured image 93 at time t13. Indicates.
  • the food to be photographed is gradually moving in the transport direction.
  • the imaging device 2 sends a plurality of continuously captured images to the inspection auxiliary device 1.
  • the inspection auxiliary device 1 generates a plurality of pieces of inspection auxiliary information for a plurality of captured images in the same manner as in the first embodiment.
  • each piece of inspection auxiliary information has frame data arranged in each captured image, as in the first embodiment.
  • the control unit 13 When the control unit 13 receives the food detection signal from the sensor 24, the control unit 13 controls the projector 71 so that a plurality of pieces of inspection auxiliary information are projected continuously (for example, at regular time intervals).
  • the control unit 13 outputs a plurality of pieces of inspection auxiliary information to the projector 71 at regular time intervals.
  • the projector 71 projects a plurality of auxiliary inspection information input from the control unit 13 onto the conveyance path in order at regular time intervals.
  • the irradiation area of the projector 71 is the same size as the imaging area of the imaging device 2.
  • FIG. 13B shows an example of projection by the projector 71.
  • a plurality of pieces of inspection auxiliary information are sent from the projector 71 at regular time intervals accordingly. Is projected.
  • FIG. 15 shows an example of a plurality of inspection auxiliary information continuously projected.
  • FIG. 15A shows inspection auxiliary information 101 projected for the first time at time t21
  • FIG. 15B shows inspection auxiliary information 102 projected for the second time at time t21
  • FIG. 15C shows 3 at time t23.
  • the auxiliary examination information 103 to be imaged for the second time is shown. Each corresponds to the captured images of FIGS.
  • the inspection auxiliary information 101 to 103 the food is gradually moving in the transport direction, and the frame data 75 is also moved in the transport direction by the same amount.
  • the inspection auxiliary information in FIGS. 15A to 15B is projected in order, as shown in FIG. 13B, the inspection auxiliary information (food image and frame data) is added to the food to be conveyed. Projected to overlap.
  • the food is moving while the projector 71 is photographing, but the food and the frame included in the inspection auxiliary information projected at time t21, time t22, and time t23 are also moving at the same speed.
  • the food and frame images included in the auxiliary inspection information are projected so as to match the position of the food regardless of the movement of the food. Accordingly, the frame projected on the food to be conveyed contains foreign matters (feathers). Since the operator can recognize that the blade is in the frame projected on the food, the blade can be easily identified.
  • FIG. 16 is a flowchart of an example of the operation according to the embodiment of the present invention.
  • the sensor 23 detects that the food to be inspected has entered the imaging region of the imaging device 2 (step S201)
  • the sensor 23 sends a detection signal to the control unit 13.
  • the control unit 13 outputs a shooting instruction signal to the camera 32.
  • the camera 32 captures the food a plurality of times (continuous imaging) at regular time intervals through the green filter, and the control unit 13 stores the plurality of captured images in the image storage unit 11 (S202).
  • the image processing unit 12 performs image processing on each captured image. Specifically, an image obtained by performing image processing on each captured image is generated (S203).
  • the detection processing unit 14 performs a foreign object detection process using edge detection based on the image processed image (S204).
  • a blade is detected as a foreign object.
  • the detection processing unit 14 first binarizes the image-processed image with a threshold value to generate a binarized image. Based on the binarized image, 1 (or 0) pixel region is specified as a blade region.
  • the auxiliary information generation unit 15 generates information indicating the position of the identified blade region (S205). For example, frame data surrounding the blade is generated, and an image (inspection auxiliary information) in which the frame data is arranged in the captured image is generated.
  • the control unit 13 receives a plurality of pieces of inspection auxiliary information generated for a plurality of photographed images, and sends the plurality of pieces of inspection auxiliary information to the projector 71 at regular time intervals when the food to be inspected passes through the inspection section. In order. Thereby, a plurality of inspection auxiliary information is projected on the food conveyed through the conveyance path at regular time intervals (S206). As a result, the position of the frame data included in the projected inspection auxiliary information can be moved in accordance with the movement of the food on the conveyance path, so that the operator interrupts the frame projected on the foreign object (feather) of the food. You can continue to check. Thus, the operator can easily identify and remove the blades.
  • the shooting area (shooting direction) of the camera 32 and the projection area (projection direction) of the projector 71 are fixed.
  • the food 32 is shot while moving the direction of the camera 32. May be.
  • a plurality of pieces of inspection auxiliary information may be sequentially projected while moving the projection direction of the projector 71.
  • a camera with a narrow angle and a projector with a narrow irradiation angle can be used.
  • an image in which frame data is arranged in a photographed image is projected onto food as inspection auxiliary information.
  • an image including only frame data is generated as inspection auxiliary information and projected onto food. May be.
  • the inspection auxiliary information is projected on the food, but it may be projected on the conveyance path.
  • the inspection auxiliary information may be projected onto a conveyance path portion in the vicinity (for example, the right side, the left side, the upper side, or the lower side) of the food to be conveyed.
  • the position of the information to be projected moves in synchronization with the food being transported. Thereby, the operator can perform an inspection while viewing the auxiliary inspection information displayed in the vicinity of the food to be conveyed.
  • a projector that projects information with light is used as the information output device, but a beam projector that projects information with a light beam may be used.
  • a beam projector When a beam projector is used, a light beam may be projected on the position of the detected foreign object. Further, the projected beam may be moved so as to surround the foreign object. In either case, the projection position of the projected beam moves in synchronization with the food being conveyed. Projecting a light beam in this way is also a form of display of inspection auxiliary information.
  • the detection processing of the foreign object or defect of food is performed based on the photographed image, and the inspection auxiliary information according to the detection result is generated and displayed.
  • the food characteristic information is measured, and inspection auxiliary information corresponding to the measured characteristic information is generated and displayed.
  • it is basically the same as the previous embodiments.
  • FIG. 17 shows an example of a food inspection assistance system according to this embodiment.
  • the imaging apparatus 2 in FIG. 12 used in the third embodiment is replaced with a three-dimensional camera (3D camera) 112, and the detection processing unit 14 is replaced with a measurement processing unit 111.
  • 3D camera three-dimensional camera
  • the detection processing unit 14 is replaced with a measurement processing unit 111.
  • Elements having the same names as in FIG. 12 are given the same reference numerals. The following description focuses on the points changed and expanded from the third embodiment.
  • the 3D camera 112 images the food to be inspected.
  • the 3D camera 112 is an example of a sensing device.
  • the 3D camera 112 measures the color and depth of food, and acquires a 3D image that is output information of the 3D camera 112 as a captured image.
  • the 3D image includes color information and depth for each pixel.
  • the depth can be measured using an LED that emits infrared rays and a sensor that receives reflected infrared rays.
  • the sensor 23 detects the food 122
  • the sensor 23 outputs a detection signal to the control unit 13.
  • the control unit 13 that has received the detection signal outputs a shooting instruction signal to the 3D camera 112, and the 3D camera 112 performs shooting.
  • the number of times of photographing is one time or a plurality of times. In the following description, it is assumed that a plurality of images are shot (continuous shooting).
  • the image processing unit 12 performs preprocessing on the 3D image. For example, processing for reducing noise components (averaging), contrast adjustment, light and shade adjustment, etc. are performed. A configuration without pre-processing is also possible.
  • the measurement processing unit 111 measures the characteristic information of the food based on the 3D image. For example, the weight of food is measured. The volume of the food is measured based on the 3D image, and the weight is calculated by multiplying the volume by the average density of the food (chicken). The average density of chicken is given to the measurement processing unit 111 in advance or stored in a storage unit such as a memory accessible from the measurement processing unit 111. In addition to weight, the size of chicken (at least one of length, width, and height) may be measured. Moreover, you may calculate the fat ratio of chicken.
  • pixel portions (the whitish portions of chicken) whose luminance is equal to or greater than a certain value are all regarded as fat portions in the depth direction, and the fat ratio is calculated from the ratio of the whole chicken volume to the fat portion volume.
  • the characteristic information of the food is measured using a 3D camera, but the measurement can also be performed using visible light, ultraviolet light, or the like.
  • a weight sensor that is a sensing device instead of a 3D camera may be arranged in the transport device 4, and the weight of the chicken may be detected by the weight sensor.
  • the auxiliary information generation unit 15 generates inspection auxiliary information based on the food characteristic information measured by the measurement processing unit 111. Specifically, a food characteristic information (superimposed image) is generated at a position of chicken in a three-dimensional image or a two-dimensional image excluding depth information. Or you may produce
  • the control unit 13 receives a plurality of inspection auxiliary information generated for a plurality of captured images (3D images).
  • the control unit 13 controls the projector 71 so that a plurality of pieces of inspection auxiliary information are projected at regular time intervals.
  • the control unit 13 outputs a plurality of pieces of inspection auxiliary information to the projector 71 at regular time intervals.
  • the projector 71 projects a plurality of auxiliary inspection information input from the control unit 13 onto the conveyance path in order at regular time intervals.
  • the irradiation area of the projector 71 is the same size as the imaging area of the imaging device 2.
  • FIG. 18 shows an example of projection by the projector 71.
  • a plurality of inspection auxiliary information is projected from the projector 71 at regular time intervals. Similar to the third embodiment, inspection auxiliary information (including food characteristic information) is projected onto the food to be conveyed so as to overlap the food.
  • inspection auxiliary information including food characteristic information
  • “398 grams” character data is projected onto the chicken 121 to be inspected.
  • the food item 121 is moving even while the projector 71 is photographing, but the characteristic information included in the inspection auxiliary information projected at the time t31, the time t32, and the time t33 is also moved in accordance with this.
  • the information is projected so as to overlap the food regardless of the movement of the food.
  • the operator checks the weight value projected on the food to determine whether the weight of the chicken is within the range defined in the specification. When it is within the range defined in the specification, the chicken is considered to be suitable and is collected by the collection device 4a as it is. If it is out of specification, pick up the chicken by hand from the transport path and store it in a separately prepared case. In the example shown in the figure, since it is within the specification range, the operator determines that there is no problem and leaves the chicken 121 off. The chicken housed in the case is adjusted in weight in the subsequent process and is kept within the specification range. Or conversely, chicken within the specification range may be picked up and stored in a separately prepared case, and the chicken outside the specification range may be collected by the collection device 4a.
  • FIG. 19 is a flowchart of an example of the operation according to the embodiment of the present invention.
  • the sensor 23 detects that the food to be inspected has entered the imaging region of the imaging device 2 (step S301)
  • the sensor 23 sends a detection signal to the control unit 13.
  • the control unit 13 outputs a shooting instruction signal to the 3D camera 112.
  • the 3D camera 112 captures a plurality of times (continuous capture) at regular time intervals, and the control unit 13 stores a plurality of captured images (3D images) in the image storage unit 11 (S302).
  • the image processing unit 12 performs image processing (such as noise component reduction processing) on each captured image (S303).
  • the detection processing unit 14 measures the characteristic information of the food based on the image processed image (S304). For example, at least one of the weight, size, and fat ratio of the food is measured.
  • the auxiliary information generation unit 15 generates inspection auxiliary information including the measured characteristic information (S305).
  • the control unit 13 receives a plurality of pieces of inspection auxiliary information generated for a plurality of photographed images, and sends the plurality of pieces of inspection auxiliary information to the projector 71 for a certain period of time at the time when the food to be inspected is conveyed through the inspection section. Output in order at intervals (S306).
  • the projector 71 projects a plurality of auxiliary inspection information at regular time intervals (S306).
  • the position of the characteristic information included in the inspection auxiliary information to be projected can be moved in accordance with the movement of the food on the conveyance path. Projected on. The operator can continue to confirm information projected on the food (weight information, etc.) without interruption.
  • Various expansion examples and modifications described in the third embodiment are also applicable to this embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Food Science & Technology (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Analytical Chemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

[課題]食品の正確かつ迅速な検査を実現し、高品質な食品の生産およびコストの抑制を図る。 [解決手段]本発明の実施形態に係る食品検査補助システムは、搬送装置と、センシング装置と、補助情報生成部と、情報出力装置と、制御部とを備える。前記搬送装置は、食品を搬送する。前記センシング装置は、搬送される前記食品をセンシングする。前記補助情報生成部は、前記センシング装置の出力情報に基づいて、前記食品の検査補助情報を生成する。前記情報出力装置は、前記検査補助情報を表示する。前記制御部は、搬送される前記食品の検査が行われる検査区間へ前記食品が搬送されるまでの時間に基づき、前記検査補助情報を表示するタイミングを制御する。

Description

食品検査補助システム、食品検査補助装置、およびコンピュータプログラム
 本発明の実施形態は、食品検査補助システム、食品検査補助装置、およびコンピュータプログラムに関する。
 食品の生産工程では、原材料の加工時前の選別作業において、原材料からの異物や欠陥の除去が行われている。例えば、鶏肉を使った加工食品の生産では、原材料の選別作業において骨、羽根などの異物や、血合いなどの欠陥を除去することが行われている。作業ミスを減らし、選別作業を高速化することが望まれるが、作業人員を増やすと、生産コストが高くなってしまう。
 食品の生産工程では、高精度の検査を補助するX線検査装置などの装置の導入が進められている。X線検査装置を用いた選別作業では、例えばX線画像で原材料中に硬骨が混入していることが確認されたら、X線画像と原材料を見比べながら、作業者が目視や触手により硬骨を探し、見つけた硬骨を除去する。しかしながら、硬骨の位置を探すのに時間を要する場合や、硬骨を見落とす場合があり、能率や精度に問題がある。また、硬骨以外に、羽根や血合いなども除去する必要があり、これらについても高精度かつ効率的に検出することが必要である。
特開2017-142133号公報 特開2007-286041号公報 特開2005-233636号公報
 本発明の実施形態は、食品の正確かつ迅速な検査を実現する、食品検査補助システム、食品検査補助装置、およびコンピュータプログラムを提供する。
 本発明の実施形態に係る食品検査補助システムは、搬送装置と、センシング装置と、補助情報生成部と、情報出力装置と、制御部とを備える。前記搬送装置は、食品を搬送する。前記センシング装置は、搬送される前記食品をセンシングする。前記補助情報生成部は、前記センシング装置の出力情報に基づいて、前記食品の検査補助情報を生成する。前記情報出力装置は、前記検査補助情報を表示する。前記制御部は、搬送される前記食品の検査が行われる検査区間へ前記食品が搬送されるまでの時間に基づき、前記検査補助情報を表示するタイミングを制御する。
第1の実施形態に係る食品検査補助システムの一例を示す図。 第1の実施形態に係る撮影装置の断面図。 カラーフィルタを通さずに得られた画像、ブルーフィルタを通して得られた画像、グリーンフィルタを通して得られた画像の例を示す図。 二値化画像と検査補助情報の例を示す図。 第1の実施形態に係るシステムの具体例を示す図。 第1の実施形態に係る動作の一例のフローチャート。 第2の実施形態に係る鶏肉を撮影した画像の例を示す図。 第2の実施形態に係る撮影装置の断面図。 第2の実施形態に係る画像処理の具体例を示す図。 第2の実施形態の変形例に係るカメラにより撮影された画像の例を示す図。 第2の実施形態及びその変形例に係る二値化画像の例をそれぞれ示す図。 第3の実施形態に係る食品検査補助システムの一例を示す図。 撮影装置による連続撮影およびプロジェクタによる連続投影を表す図。 連続撮影された撮影画像の例を示す図。 連続投影される複数の検査補助情報の例を示す図。 第3の実施形態に係る動作の一例のフローチャート。 第4の実施形態に係る食品検査補助システムの一例を示す図。 プロジェクタによる投影を示す図。 第4の実施形態に係る動作の一例のフローチャート。
 以下では、図面を参照しながら、本発明の実施形態について説明する。図面において同一の構成要素は、同じ番号を付し、説明は、適宜省略する。
(第1の実施形態)
 図1は、第1の実施形態に係る食品検査補助システム(以下、システム)の構成例を示す図である。図1のシステムは、食品検査補助装置(以下、検査補助装置)1と、センシング装置である撮影装置2と、情報出力装置であるディスプレイ3と、搬送装置4とを備えている。
 図1のシステムにおいて、搬送装置4により検査対象とする食品(検査対象食品)が一定の速度で、紙面に沿って右方向に搬送されている。食品の搬送元側を上流側、搬送方向側を下流側と呼ぶ。上流側では、作業者による手作業またはマシンにより搬送装置4に食品が、一定時間間隔または任意の時間間隔で置かれる。食品が撮影装置2の筐体内の撮影領域に入ったことがセンサ23により検出されると、カメラ32で食品を撮影する。図では食品22が撮影される状況が示されている。1つの食品に対して撮影は1回でもよいし、複数回連続して(例えば1秒間に10回など)撮影してもよい。連続撮影する場合、撮影の間も、食品は搬送経路を移動していることから、撮影領域内で少しずつ食品の位置が移動した撮影画像が得られる。
 撮影装置2の出力情報である撮影画像は検査補助装置1に送られ、検査補助装置1で撮影画像に基づき異物または欠陥の検出処理が行われる。具体的には、撮影画像に各種画像処理を行った後、画像処理された画像に基づき、異物または欠陥の検出処理を行う。なお、異物または欠陥を有する食品を不良品、異物および欠陥のない食品のことを良品と呼ぶ場合がある。
 検査対象とする食品の例としては、鶏肉、豚肉、牛肉、羊肉、魚介類、野菜、果物、穀物、飲料、調味料などがあるが、食品の種類については特に問わない。鶏肉、豚肉、牛肉、魚介類などの食肉の場合、未加熱である生の食肉を検査対象としてもよいし、加熱後の食肉を検査対象としてもよい。食品は未加工の原材料であってもよいし、生の切り身であってもよいし、何らかの加工が施されたものであってもよい。すなわち、食品の加工の程度についても特に限定しない。
 第1の実施形態では、鶏肉の生の切り身を検査対象とし、異物として羽根の検出を行う場合を例に説明する。異物として、羽根以外のもの(例えば硬骨、軟骨、木片、飼料など)を検出対象としてもよい。
 システムは、画像から異物(羽根)を検出した場合、羽根の位置を特定し、特定した位置を表す情報を含む検査補助情報を生成する。特定した位置を表す情報の一例として、特定した位置を指示するデータがある。本実施形態では、そのようなデータとして、検出された羽根を囲む枠データ(例えば矩形の枠データ)を生成する。システムは撮影画像に、生成した枠データを配置する。これにより、撮影画像に含まれる羽根が枠データにより囲まれた画像が生成される。これを検査補助情報とする。特定した位置を指示するデータは枠データに限定されず、特定した位置を示す矢印のデータでもよいし、その他の形態のデータでもよい。
 システムでは、撮影装置2の下流側に、食品の検査を行う検査区間が、搬送装置4の搬送経路に沿って設けられている。検査区間の近傍にはディスプレイ3が配置されている。ディスプレイ3は、作業者に情報を表示する情報出力装置の一例である。情報出力装置の他の例としては、情報を投影する投影装置がある。投影装置の例として、情報を光により投影するプロジェクタや、情報を光ビームにより投影するビーム投影器などがある。プロジェクタやビーム投影器を用いた実施形態は後述する。
 ディスプレイ3は、検査区間で作業者が検査を行う際に、作業者がディスプレイ3の画面3aを視認できる位置に設置されている。例えば、作業者が図の紙面の手前側に位置する場合、ディスプレイ3は搬送装置4を挟んで紙面の奥側に設置され、その画面が作業者に向けられる。
 作業者は検査区間に搬送された(現れた)食品を検査する。検査は一例として目視または触手またはこれらの両方で行う。検査補助装置1は、検査区間に食品が搬送されるタイミング、すなわち、検査区間に食品が現れるタイミングに合わせて、ディスプレイ3に検査補助情報を表示する。換言すれば、検査区間に食品が現れる前までは、検査補助情報を表示しない。作業者から見ると、検査区間に食品が現れるのに同期して、ディスプレイ3に検査補助情報が表示される。図には、ディスプレイ3に異物(羽根)を枠データ5で囲んだ画像が表示されている。
 作業者は、表示された検査補助情報を見ながら、搬送されている食品の検査を行う。具体的に、枠データ5から羽根の位置を把握し、当該枠データ5に対応する位置およびその付近から羽根を探し、見つけた羽根を除去する。作業者は除去した羽根を、例えば所定のケースに廃棄する。検査中も、食品が作業者の前を少しずつ移動しているため、作業者は、効率よく羽根を除去する必要がある。本実施形態では、ディスプレイ3に表示された検査補助情報を参照することで、作業者は羽根の位置を高速に特定でき、効率的に羽根を除去できる。
 システムは、検査補助情報を、食品が検査区間に存在する間表示し続けてもよいし、検査区間に入ってから一定時間表示してもよい。また、食品を複数回撮影(連続撮影)した場合は、複数の撮影画像に対して生成された複数の検査補助情報を、食品が検査区間に入ってから、検査区間を出るまでの間に、連続表示(例えば一定時間間隔で表示)してもよい。これにより、搬送される食品と同期した動画像として、検査補助情報を見ることができる。食品が移動するのに合わせて、ディスプレイ3に表示される検査補助情報に含まれる枠データ5も移動しているように見える。このため、作業者はより効率的に羽根を探すことができる。
 以下、図1のシステムの各構成要素について詳細に説明する。
 搬送装置4は、上流側で作業者またはマシン等により投入された食品を下流側に搬送する装置である。搬送装置4として、例えばベルトコンベヤ、チェーンコンベヤ、ローラコンベヤ、メッシュコンベヤ、グラビティコンベヤなど各種のコンベヤ装置を用いることができる。コンベヤ装置は一例であり、その他の搬送手段を使って食品を搬送してもよい。なお、図1の例では、食品が左から右に向かって搬送されているが、食品が搬送される方向については特に限定しない。
 搬送装置4の検査区間の入口には搬送路の片側または両側にセンサ24が配置されている。センサ24は、食品の通過を検出する。具体的に、センサ24は、食品が検査区間まで搬送されたことを検出する。センサ24は、食品の通過を検出すると検出信号を制御部13に出力する。センサ24の例としては、レーザセンサ、赤外線センサ、超音波センサ、各種の光電センサ、画像センサ、重量センサなどが挙げられるが、センサの種類については特に問わない。
 搬送装置4の検査区間の下流には回収装置4aが配置されている。回収装置4aは検査を経た食品を回収する。搬送装置4が、食品検査補助装置1に電気的に接続され、食品検査補助装置1から搬送装置4を制御してもよい。例えば、搬送速度、動作のオン・オフ等を制御してもよい。本実施形態では搬送装置4は一定の速度で搬送を行うとするが、作業者が、搬送装置4に対して設けられた操作部を操作して、オン・オフや速度を調整可能にしてもよい。なお、回収装置4aに食品を回収せずに、そのまま次の工程(例えば調理工程)に搬送してもよい。
 撮影装置2は、筐体内の撮影領域に搬送された食品を光源で照らし、撮影する。撮影装置2で撮影された画像のデータは、検査補助装置1に送られ、画像記憶部11に保存される。撮影装置2と検査補助装置1の間のインタフェースとして、Ethernet、無線LAN、PCI Express、USB、UART、SPI、SDIO、シリアルポート、Bluetooth(登録商標)などを用いることができる。これらのインタフェースは例であり、その他の方式によるものを用いることを妨げるものではない。
 図2は、撮影装置2の断面図である。撮影装置2は、1つまたは複数の照明部31と、カメラ32と、フィルタ33と、センサ23とを備えている。撮影装置2は、略直方体形状の筐体を有し、筐体の搬送装置4に面した下部には、食品が通過するための開口部34が形成されている。撮影装置2は、搬送装置4の一部区間を上方から覆っている。筐体の側面の一部またはすべてには壁が形成されている。また、筐体の上部には天井が形成されている。天井や壁により、撮影領域に外部の光源からの赤外線、可視光などが入り込むのを抑制できる。これにより、撮影装置2は所望の光源からの光を選択的に撮影対象の食品に投影できる。
 なお、撮影装置2は天井または壁またはこれらの両方を備えていなくてもよい。例えば、撮影装置2が暗室に設置されているのであれば、外部の光源からの影響が少ないため、遮光用の天井および壁を省略できる。天井および壁の材質の例としては、ステンレス鋼、アルミニウム、樹脂などがあるが、材質については特に問わない。図の例では、搬送路の真上から撮影しているが、斜め上から撮影してもよいし、複数の方向から撮影してもよい。
 撮影装置2の筐体内下部に、1つまたは複数の照明部31が設置されている。照明部31は、紫外線を放射する装置である。鶏の羽根に紫外線を照射すると、蛍光が発生するため、羽根の検出が可能となる。照明部31は、撮影装置2の下方の撮影領域に紫外線を照射する。図の例では2つの照明部31が配置されている。一例として、2つの照明部31は、紙面に垂直な方向に延びる直方体状の形状を有する。ただし、形状はこれに限られない。例えば照明部31の形状は、円柱状でもよい。また、照明部31が1つで、リング状に形成されていてもよい。
 照明部31における光源の例としては、紫外線LED、ブラックライト、各種の蛍光ランプなどがあるが、種類については特に問わない。鶏の羽根を検出する場合、光源として、スペクトルにおける波長のピークが365以上400nm以下の範囲内にある紫外線光源を用いることが好ましい。一例として、スペクトルに波長375nmのピークがある紫外線光源を使うことができる。ただし、光源のスペクトルについては特に問わない。紫外線成分だけでなく、可視光成分も含む光源を用いてもよい。
 使用する光源の種類は、検査対象とする食品の種類、検出対象とする異物または欠陥の種類などに応じて決定すればよい。例えば異物として骨(硬骨または軟骨)を検出する場合には、X線を用いることができる。一般に、物質に対して電磁波を照射すると、物質の種類によって異なる反応が得られる。例えば、物質によって吸収する電磁波、反射する電磁波、蛍光が発生する電磁波の波長(周波数)は異なる。そこで、検査対象とする食品、検出対象とする異物または欠陥に対して分光蛍光スペクトル分析を行い、強い反応を示す電磁波の波長を調べることができる。分光蛍光スペクトル分析は例えば、分光蛍光光度計を使うことによって行うことができる。
 カメラ32は、照明部31から放射された紫外線が照射された食品を撮影する。カメラ32の内部には、例えばCMOSイメージセンサやCCDイメージセンサが実装されており、撮影対象の食品に係る色情報を含むカラー画像を得ることができる。これらの撮像素子は例であり、異なるデバイスを使って撮像を行ってもよい。カメラ32のレンズは固定焦点レンズであってもよいし、ズームレンズであってもよく、レンズの種類について特に限定しない。カメラ32が撮影する画像に係る解像度の例としては、フルHD(1920×1080ピクセル)があるが、撮影される画像の解像度については特に限定しない。
 カメラ32の前面にはフィルタ33が設けられている。カメラ32は、照明部31から紫外線を放射された食品から発生する蛍光を、フィルタ33を介して検出する。フィルタ33は、カメラ32によって撮影される画像によって異物の識別を容易にするために備えられる。異物として鶏の羽根を検出する場合、フィルタ33としてグリーンフィルタを用いることで、羽根の検出が容易になる。つまり、羽根のある箇所が鮮明に現れ、鶏肉の他の部位との識別がしやくなる。グリーンフィルタは、緑色の波長域の波長(例えば波長520nm近傍の電磁波)を通過させ、他の波長域を遮断するフィルタである。本実施形態では異物として羽根の検出を行うため、フィルタ33としてグリーンフィルタを用いる場合を想定する。
 図3(A)は、カラーフィルタを通さずに撮影された鶏肉の画像の例を示している。図3(A)の楕円で囲まれた範囲内に羽根の一部がある。図3(A)を見ると羽根のある箇所に、色がやや薄い筋があるものの、不鮮明である。図3(B)は、ブルーフィルタを通して得られた画像の例を示している。図3(B)でも、白い楕円に囲まれた範囲内に羽根の一部がある。羽根の周囲の輝度は抑制されているが、羽根のある箇所の輝度も低下しており、羽根がぼやけている。図3(C)は、グリーンフィルタを通して撮影された画像の例を示している。白い楕円に囲まれた範囲内に羽根がある。図3(C)の画像では羽根のある箇所が鮮明に現れており、鶏肉の他の部位との識別がしやくなっている。これらのことからも、グリーンフィルタを通して画像の撮影を行うことで、羽根を識別が容易になることが分かる。
 センサ23は、搬送装置4によって、撮影装置2の筐体内に食品が搬送されたことを検出する。具体的には、撮影装置2内の撮影領域に食品が入ったことを検出する。センサ23は、紙面に垂直な方向に、搬送される食品とは異なる位置に配置されており、食品の通過を妨げないようになっている。センサ23の例としては、レーザセンサ、赤外線センサ、超音波センサ、各種の光電センサ、画像センサ、重量センサなどが挙げられるが、センサの種類については特に問わない。
 ディスプレイ3は、画像やテキスト等の情報を、画面3aに表示する情報出力装置である。ディスプレイ3は、検査補助装置1と有線または無線で接続されている。検査補助装置1およびディスプレイ3間のインタフェースは、無線LAN、PCI Express、USB、UART、SPI、SDIO、シリアルポート、Bluetooth、Ethernet、などを使うことができる。これらのインタフェースは例であり、その他の方式のものを使ってもよい。ディスプレイ3として、例えば、LCD(液晶ディスプレイ)、CRT(ブラウン管)、有機EL(有機エレクトロルミネッセンス)ディスプレイなどを使うことができるが、その他の種類の装置を使ってもよい。ディスプレイ3は、検査を行っている作業者が検査中に画面3aを視認できる位置および向きに配置されている。例えば、作業者から見て、搬送装置4を挟んで正面、斜め上、斜め左、斜め右または斜め下に、ディスプレイ3の画面3aが位置してもよい。
 検査補助装置1は、撮影装置2で撮影された画像の画像処理、異物または欠陥の検出処理、検出した異物または欠陥の位置を特定する情報を含む検査補助情報の生成処理、検査補助情報を作業者に表示する際の表示タイミング制御などを行う。検査補助装置1は、一例として、1以上のCPU(中央処理装置)、記憶部、通信部を備え、OS(オペレーティングシステム)とアプリケーションが動作する計算機などの情報処理装置である。検査補助装置1の一部または全部の機能を、FPGA、ASICなどの半導体回路やGPU(Graphics Processing Unit)によって実現してもよい。検査補助装置1は、物理的な計算機であってもよいし、仮想計算機(Virtual Machine:VM)、コンテナ(container)またはこれらの組み合わせにより実現されるものであってもよい。1つ以上の物理計算機、仮想計算機、コンテナに検査補助装置1の機能を分担させてもよい。可用性の向上や負荷分散のために検査補助装置1の台数を増やした構成を用いることも排除されない。
 検査補助装置1は、画像記憶部11、画像処理部12、制御部13、検出処理部14、および補助情報生成部15を備えている。
 制御部13は、撮影装置2のセンサ23から検出信号を受信すると、撮影装置2のカメラ32に撮影の指示信号を送信する。すなわち、制御部13は、食品がカメラ32の撮影アングル(撮影領域)内に入ったタイミングでカメラ32に撮影を指示する。これにより、搬送される食品の自動的な撮影が行われる。
 画像記憶部11は、撮影装置2のカメラ32により撮影された画像を保存する記憶領域を備える。画像記憶部11は、SRAM、DRAMなどの揮発性メモリでも、NAND、MRAM、FRAMなどの不揮発性メモリでもよい。また光ディスク、ハードディスク、SSDなどのストレージ装置でもよい。画像記憶部11は、検査補助装置1に内蔵されていてもよいし、検査補助装置1の外部の記憶装置であってもよい。また、画像記憶部11は、SDメモリカード、USBメモリなどの取り外し可能な記憶媒体であってもよい。
 画像処理部12は、撮影された食品の画像に対して画像処理を行う。羽根を検出する場合、グリーンフィルタを用いることで、撮影画像における羽根が他の箇所よりも鮮明になる。本画像処理では、羽根をさらに強調する処理を行う。画像処理の例として、HSV色空間へ変換、RGB空間への変換、またはグレースケールへの変換などがあるが、特定の方法に限定されない。画像処理部12は、画像処理された画像を画像記憶部11に保存する。なお、保存される画像には識別子が付与されてもよい。識別子は、一定値ずつ値が大きくなる番号でもよいし、時刻でもよいし、その他の基準で決めても良い。画像処理部12は、制御部13に画像処理された画像の識別子、または当該画像が格納されている領域のアドレス情報を通知してもよい。グリーンフィルタを用いて撮影した画像に画像処理を行わないことも可能である。その場合、画像処理部12を設けなくてもよい。
 制御部13は、画像記憶部11に保存された画像処理された画像について、異物または欠陥の検出処理を検出処理部14に要求する。制御部13が、画像処理された画像を画像記憶部11から読み出し、読み出した画像を検出処理部14に提供してもよいし、検出処理部14が画像記憶部11から画像処理された画像を直接読み出してもよい。この場合、制御部13が、検出処理部14に画像処理された画像の識別子、または当該画像が格納されている領域のアドレス情報を通知する。ここでは制御部13を介して画像処理された画像を検出処理部14に提供したが、画像処理部12が画像処理の実行後、検出処理部14に画像処理された画像を提供してもよい。
 検出処理部14は、画像処理された画像に基づき、異物または欠陥の検出処理を行う。ここでは羽根の検出処理を行う。なお、画像は複数のピクセルからなり、各ピクセルは一定範囲内の値を有する。例えば1つのピクセルが8ビットの情報で表現されている場合、ピクセルの値は0~255の256階調を有する。検出処理部14は、画像処理された画像に対して、エッジ検出により、羽根を特定する。具体的には、まず画像処理された画像を、閾値で二値化する。すなわち、閾値以上のピクセル値は1,閾値未満のピクセル値は0として、二値化画像を生成する。1と0の関係は逆でもよい。二値化により羽根の全部もしくは大部分が1、それ以外の部分の全部または大部分が0となる。1が固まっている領域を羽根領域として検出する。
 図4(A)に、画像処理された画像を閾値で二値化して得られた二値化画像の例を示す。黒のドットが1のピクセルに対応し、それ以外のピクセルは0のピクセルに対応する。画像の右側に、値が1のピクセル群の短い長さの領域30がある。この領域30が羽根領域に対応する。領域30内の全部が値1のピクセルの場合もあるが、一部値が0のピクセルがあってもよい。領域30の特定は、例えばクラスタリングを用いて行うことができる。例えば画像上で隣接するピクセル間の距離が一定範囲内にある値1のピクセル群を同じグループに分類していき、一定数以上のピクセルを含むグループを羽根領域として特定する。ここでは羽根領域は1つであるが、複数の羽根領域が特定される場合もある。クラスタリングの手法は何でもよい。またクラスタリング以外の手法を用いて領域検出を行ってもよい。
 補助情報生成部15は、検出処理部14により特定された羽根の位置を表す情報を生成する。そのような情報の例として、羽根の位置を指示するデータがある。本実施形態では、羽根の位置を指示するデータとして、羽根を囲む枠データを生成するが、羽を指し示す矢印のデータなど、他の形態のデータを生成してもよい。羽根を囲む枠は、例えば、羽根に外接する矩形でもよいし、羽根を囲む星形でもよいし、その他の形でもよい。枠の色は、画像処理前の撮影画像(グリーンフィルタを介して撮影した画像)に対してコントラストが高い色であることが望ましい。補助情報生成部15は、生成した枠データの座標を保持しておく。
 補助情報生成部15は、撮影画像に対して、生成した枠データを、上記保持しておいた座標に配置する。このようにして得た画像(補助画像)は、検査補助情報の一例に相当する。枠データを撮影画像に重ねて2層構造の画像としてもよいし、枠データに対応する位置のピクセルの値を枠データの値で更新してもよい。これにより撮影画像の羽根を枠データで囲んだ画像が得られる。なお、スケール変換により二値化画像のサイズが撮影画像と異なることとなっている場合は、スケールを逆変換して、枠データを撮影画像に配置すればよい。
 補助情報生成部15は、撮影画像に対して枠データ以外の情報を配置してもよい。例えば、羽根を異物として検出していることから、羽根を表す文字もしくは記号を、枠データの近傍に配置してもよい。例えば「hane」の文字データを、枠データの近傍に配置してもよい。また、検出された羽根領域のサイズを表すデータを、枠データの近傍に配置してもよい。サイズは、羽根領域の横または縦の少なくとも一方のサイズでもよいし、羽根領域の面積(ピクセル数)でもよいし、大・中・小などのサイズのカテゴリでもよい。また、特定された羽根領域の個数を表すデータを配置してもよい。例えば、羽根領域が2つ特定された場合は、「2」を撮影画像に配置してもよい。この場合、枠データも2つ存在する。ここで述べた以外の情報を配置してもよい。
 図4(B)に、補助情報生成部15が生成した検査補助情報の例を示す。グリーンフィルタを介して撮影した画像に、太い白線の枠データが配置され、近傍に「hane」の文字データが配置されている。
 制御部13は、補助情報生成部15によって生成された検査補助情報を受け取り、内部のバッファまたは画像記憶部11に格納する。制御部13は、検査対象となった食品が検査区間を通過するタイミングで、検査補助情報を表示するように、検査補助情報の表示タイミングを制御する。具体的には、制御部13は、センサ24から検出信号を受信すると、生成された検査補助情報を内部のバッファまたは画像記憶部11から読み出し、読み出した検査補助情報をディスプレイ3に送信する。ディスプレイ3は、制御部13から受信した検査補助情報を表示する。制御部13は、検査補助情報の送信から一定時間後(例えば検査区間の長さを搬送速度で除算した時間の経過後)、検査補助情報の表示を停止する停止指示信号もしくは待機用の画像をディスプレイ3に送信する。待機用の画像は、作業者が次の検査対象となる食品が検査区間に来るまで待っている間に表示しておく画像である。制御部13は、食品が連続撮影されたことにより複数の検査補助情報が生成された場合は、これらの検査補助情報を連続して(一定の時間間隔で)ディスプレイ3に出力する。ディスプレイ3は、これらの検査補助情報を動画像として連続表示する。検査区間の終了位置付近にセンサを配置し、当該センサが食品を検出した場合に、検出信号を制御部13に送信し、制御部13が、検出信号に基づき、停止指示信号または待機用の画像をディスプレイ3に送信してもよい。
 制御部13は、複数の食品について順次生成された複数の検査補助情報のうち、今回表示する検査補助情報をどのようにして特定するかは任意の方法を用いればよい。例えば、まだ表示していない検査補助情報のうち最も古い検査補助情報を、表示すべき検査補助情報としてもよい。この場合、表示済みの検査補助情報と、まだ表示されていない検査補助情報を識別するフラグを設定してもよい。あるいは、表示されていない検査補助情報を先入れ先出しバッファで管理してもよい。
 他の方法として、撮影装置2で撮影対象となる食品が代わるごとに1ずつ大きくなるシーケンス番号を、当該食品に対して生成された検査補助情報に付与する。また、センサ24で食品が検出されるごとに、1ずつ大きくなるシーケンス番号を生成する。センサ24で検出された際に生成されるシーケンス番号に値が一致する検査補助情報を、今回表示すべき検査補助情報として特定する。
 なお、検査区間に食品があるときに、次の検査対象となる食品がまだ撮影領域に搬送されていないような緩やかな間隔で食品が搬送される場合は、直前に生成した検査補助情報を表示するようにしてもよい。
 ディスプレイ3は、制御部13から検査補助情報を受信し、受信した検査補助情報(図4(B)参照)を画面3aに表示する。ディスプレイ3は制御部13から停止指示信号を受信した場合は、検査補助情報の表示を停止する。待機用の画像を受信した場合は、待機用の画像を表示する。
 図5(A)および図5(B)はシステムの具体的な構成例を示す。図5(A)は、システムの側面図である。図5(B)は、システムの平面図である。前述した図1では紙面に向かって左側が上流側、右側が下流側であったが、図5(A)および図5(B)では、紙面に向かって右側が上流側、左側が上流側となっている。図5(A)には撮影装置2、搬送装置4、回収装置4a、ディスプレイ3、食品21が示されている。図5(B)には、撮影装置2、搬送装置4、回収装置4a、ディスプレイ3、食品21、センサ23、センサ24、検査補助装置1、作業者27が示されている。以下、図5(A)および図5(B)を用いて、システムを用いて食品検査の流れを説明する。
 搬送装置4のコンベヤベルト上に上流側で配置された食品(鶏肉)21が撮影装置2へ搬送される。食品21は、撮影装置2の筐体の下方の撮影領域に入ると、センサ23により検出され、撮影装置2の筐体内のカメラにより撮影される。撮影後、食品21は撮影装置2の筐体から出て、下流側に搬送される。一方、撮影された画像は検査補助装置1に送られ、検査補助装置1は画像に基づき羽根の検出を行い、検出した羽根の位置を特定する情報を含む検査補助情報(ここでは鶏肉の画像に羽根の位置を表す矩形の枠データ5を重ねた補助画像)を生成する。
 撮影装置2の筐体から出た食品21がセンサ24により検出されると、検査補助装置1は、上記の生成した検査補助情報をディスプレイ3に出力する。ディスプレイ3は、搬送装置4の一方の側面に沿って、床に対して画面が垂直になるように、アーム部材28によって支持されている。ディスプレイ3は、検査補助装置1から入力された検査補助情報を画面3aに表示する。一方、作業者27は、検査区間に搬送されてきた食品21を、目視または触手またはこれらの両方で検査する。なお、検査の際、食品21は搬送装置4に載せたままでもよいし、食品21を搬送装置4から手で持ち上げてもよい。作業者27は、ディスプレイ3に表示された検査補助情報を参照し、枠データ5の位置および大きさを確認しつつ、食品21から羽根を探す。作業者は、見つけた羽根を除去する。羽根が除去された後、食品は搬送装置4によって検査区間の下流側に搬送され、回収装置4aによって回収される。
 図6は、本発明の実施形態に係る動作の一例のフローチャートである。検査対象となる食品が撮影装置2の撮影領域に入ったことをセンサ23が検出すると(ステップS101)、センサ23は検出信号を制御部13に送る。制御部13はカメラ32に撮影の指示信号を出力する。カメラ32は、グリーンフィルタを介して食品を撮影し、制御部13は、撮影画像を画像記憶部11に格納する(S102)。画像処理部12は、撮影画像を画像処理する(S103)。
 検出処理部14は、画像処理後の画像に基づき、エッジ検出を用いて、異物の検出処理を行う(S104)。ここでは、異物として羽根の検出処理を行う。具体的には、まず、まず画像処理された画像を、閾値で二値化し、二値化画像を生成する。二値化画像に基づき、1(または0)のピクセル領域を羽根の領域として特定する。
 補助情報生成部15は、特定された羽根の領域を表す情報を生成する(S105)。例えば、羽根を囲む枠データを生成し、枠データを撮影画像に配置した画像(検査補助情報)を生成する。
 制御部13は、生成された検査補助情報を受け取り、食品が検査区間を搬送されるタイミングで、検査補助情報をディスプレイ3に表示する(S106)。表示すべき検査補助情報が複数存在する場合は、連続してこれらの検査補助情報を出力することで、これらの検査補助情報を順次切り替えながら表示する。これにより搬送路上の食品の移動に合わせて、ディスプレイ3に表示される食品および検査補助情報も、動画像として移動して見える。
 本実施形態では、二値化画像に対してエッジ検出により異物の領域を特定したが、別の方法を用いてもよい。例えば、撮影画像または画像処理後の画像をモデルの入力とし、モデルから、異物の位置または領域の情報を出力させてもよい。この場合、サンプルとなる画像(撮影画像または画像処理後の画像)と、異物の位置または領域とを対応づけたデータを、学習データとして用いて、機械学習によりモデルを構築する。モデルの例としては、ニューラルネットワークがある。
 本実施形態では、食品が検査区間に搬送されたことをセンサ24により検出したが、別の方法で検出してもよい。例えば、食品の搬送速度と、食品の撮影位置(またはセンサ23の検出位置)から検査区間までの距離に基づいて、食品が検査区間に現れるタイミングを計算してもよい。食品が検査区間に搬送されるまでの時間に基づいて、食品が検査区間に搬送されたことを検出するものである限り、どのような方法を用いてもかまわない。
 本実施形態によれば、食品原材料の正確かつ迅速な検査を実現し、高品質な食品の生産およびコストの抑制を図ることができる。
(変形例1)
 第1の実施形態では、二値化画像を用いて羽根の領域を特定したが、食品が良品の場合には、羽根が存在せず、羽根の領域が見つからない。その場合、補助情報生成部15は、羽根が存在しない(食品は良品である)ことを示す情報を検査補助情報として生成する。例えば、「NO Hane」または「GOOD」の文字データを生成する。作業者は、この情報をディスプレイ3で確認することで、検査対象となる食品に羽根は存在しないと判断できるため、羽根を探す作業を省略できる。
(変形例2)
 変形例1の拡張として、検査補助装置1は、羽根が検出された場合は不良品、検出されなかった場合は良品と判断し、不良品か良品かを表す情報を、検査補助情報として生成してもよい。作業者は、良品の情報が表示された食品のみを回収装置4aに回収し、不良品と判断された食品は、搬送装置4から取り上げて、別の容器に回収する。良品か不良品かで食品を自動的に仕分ける仕分け装置を、搬送装置4に対して設置し、仕分け装置が自動的に仕分けを行ってもよい。この場合、仕分け装置は、検査補助装置1から良品か不良品かの判定結果情報を受信し、受信した判定結果情報に基づいて仕分けを行う。
(第2の実施形態)
 第2の実施形態では、食品から欠陥として血合いを検出する。血合いは食肉における打ち身などに起因する着色や血の固まりだけでなく、色、風味などが他の部位とは異なる着色部位なども含む。また、欠陥の他の例として、欠け、亀裂、ねじれなど形状に関するものがある。システム構成は基本的には第1の実施形態と同じである。以下、第1の実施形態との差分を説明する。
 図7に、本実施形態に係る鶏肉を撮影した画像の例を示している。丸で囲まれた部位に血合いが含まれている。本実施形態では、このような血合いを、食品(鶏肉)の欠陥として検出する。
 図8は、本実施形態に係る撮影装置51の断面図である。本実施形態では図1の撮影装置2に代えて、撮影装置51を用いる。
 撮影装置51は、1つまたは複数の照明部52と、偏光板53と、カメラ55と、偏光板56と、センサ23を備えている。撮影装置51は、略直方体形状の筐体を有し、筐体の搬送装置4に面した下部には、食品が通過するための開口部54が形成されている。筐体の具体的な構成については第1の実施形態と同様であるため説明を省略する。
 照明部52は、例えば白色LEDによる照明装置である。複数の照明部52が設けられており、左右の照明部52は紙面に沿って垂直方向に延びる形を有する。中央の照明部52は、紙面に沿って左右に延びる形の照明部が、紙面に沿って垂直方向に1つまたは複数、間隔を開けて配置されている。この間隔を通過する光をカメラ55が偏光板56を介して撮影する。
 白色LEDは、一例であり、これとは異なる色のLEDを光源として使ってもよい。例えば、赤色、緑色、青色など複数の色のLEDを組み合わせて光源を構成してもよい。また、エレクトロルミノセンスランプ、HIDランプ、蛍光灯、白熱灯など、その他の光源を使ってもよい。使用する光源の種類は、検出対象の食品や異物の種類に応じて決めることができる。光源は可視光を放射するものに限らず、赤外線や紫外線などを放射するものであってもよいし、複数の波長に係る光源の組み合わせ(マルチ波長)であってもよい。
 照明部52の前面には偏光板53が設けられている。偏光板53は例えば直線偏光板である。偏光板53を設けることで、搬送装置4の表面や食品の水分や油脂による光の乱反射が抑制され、カメラ55における食品の正確な撮影に寄与する。偏光板53を設けない構成も可能である。
 カメラ55は、照明部52から照射された光線に照らされた食品を撮影する。カメラ55の前面にも偏光板56が設けられている。偏光板56は例えば、カメラレンズ用の偏光フィルタである。偏光板53を通して撮影を行うことにより、水分、油脂などの光沢に由来する乱反射やテカリなどが抑制された画像を得ることができる。偏光板56を設けない構成も可能である。
 画像処理部12は、撮影装置51の出力情報である撮影画像内のピクセルにおける赤、緑、青(RGB)の各色の輝度を抽出して色毎の画像を得る。そして、赤(R)の画像から緑(G)の画像のピクセル値をピクセルごとに減算した画像を生成する。このようにして生成した画像を、第1の実施形態と同様に、閾値を用いて二値化処理し、二値化画像を生成する。
 図9は、画像処理の具体例を示す。撮影画像61を、Rの画像62と、Gの画像63と、Bの画像64とに分離する。Rの画像62のピクセル値からGの画像63のピクセル値を減算した画像(R-G画像)を生成する。生成した画像を二値化処理して二値化画像65を生成する。撮影画像61はカラー画像であり、画像62~64は、それぞれRGBに係る輝度の大きさを表現したグレースケールの画像となっている。二値化画像65において、ピクセル値が閾値以上のピクセルが白色、閾値未満のピクセルが黒色になっている。ピクセル値が閾値以上のピクセルの領域が、血合いの部位に対応する。
 検出処理部14は、二値化画像65に対して第1の実施形態と同様にエッジ検出を行うことで、血合いの領域(二値化画像65の白色の領域)を特定できる。
 なお、上記の画像処理は一例であり、他の画像処理を行ってもよい。例えば撮影画像に対して赤色と緑色を強調する処理を行い、その後で、処理後の撮影画像を、R画像、G場画像、B画像に分離してもよい。その他、減算後の画像(R-G画像)の変換(例えばHSV色空間への変換)を行い、変換後の画像から赤の成分のみを抽出した画像を生成してもよい。R-G画像を変換せずに、R-G画像から赤の成分のみを抽出した画像を生成してもよい。なお、撮影映像に何ら画像処理を行わず、撮影画像をそのまま二値化処理することも排除されない。
 補助情報生成部15は、第1の実施形態と同様に、血合いの位置を特定する情報を含む検査補助情報を生成する。例えば、血合いの領域を囲む枠データを二値化画像に基づき生成し、生成した枠データを撮影映像に配置する。枠データの近傍に、「chiai」などの文字データを配置してもよい。このようにして生成した画像(補助画像)を、検査補助情報としてディスプレイ3に表示する。表示のタイミング制御は、第1の実施形態と同様である。作業者は、ディスプレイ3に表示された検査補助情報の枠データを参照して血合いの位置を確認しながら、検査区間に搬入された食品を検査する。血合いを見つけたら、所定の器具を利用して、血合いを除去する。あるいは、作業者は血合いを確認し、血合いの程度が、許容可能な程度のもの(小さいなど)であればそのまま食品を回収装置4aに回収させ、許容できない程度のものであれば、所定のケースに収容し、別途、血合いを除去する作業を別工程で行ってもよい。血合いが検出された鶏肉について、その他の方法で対処してもよい。
 (変形例)
 上述の第2の実施形態では、画像処理としてR-G画像を生成し、R-G画像から二値化画像を生成した(図9参照)。本変形例では、カラー画像に加えて赤外線(INFRARED)画像を撮影し、赤外線画像のピクセル値からG画像のピクセル値を減算した画像を生成する。赤外線画像の具体例として近赤外線(NEAR INFRARED)画像がある。近赤外線は、一例として波長が760nm~1000nmの電磁波である。本変形例では、近赤外線画像を撮影し、近赤外線画像のピクセル値からG画像のピクセル値を減算した画像(NIR-G画像)を生成する。さらにNIR-G画像を二値化処理して二値化画像を生成する。この二値化画像を用いて異物または欠陥の検出を行う。これにより、色の濃い血合い(例えば黒みの強い血合い)の検出精度を高めることができる。
 本変形例ではカメラ55として、カラー画像と近赤外線画像とを撮影可能なカメラを用いる。そのようなカメラの例として、RGBカメラと赤外線カメラの両方を用いてもよい。あるいは、マルチスペクトルカメラ、または、撮影可能な波長の数がより多いハイパースペクトルカメラを用いてもよい。カメラの構成、台数、種類については特に限定しない。RGBカメラと赤外線カメラの両方を用いる場合、撮影は同時に行っても、順番に行ってもよい。後者の場合、後段の画像処理部12では、画像の減算処理を行う際、画像の位置合わせを行ってもよい。
 カメラ55で撮影された食品(鶏肉)のカラー画像と近赤外線画像は、画像記憶部11に送られる。画像記憶部11は、カラー画像と近赤外線画像を内部に格納する。画像処理部12は、画像記憶部11からカラー画像を読み出し、カラー画像から赤、緑、青(RGB)の各色の輝度を抽出してR画像(赤色画像)131、G画像(緑色画像)132及びB画像(青色画像)133を生成する。
 図10に、画像処理部12により生成されたR画像131、G画像132及びB画像133の例を示す。また、同図に、画像記憶部11に格納された近赤外線画像134の例を示す。これらの画像131~134では、ピクセルごとに、対応する波長の電磁波の強度がグレースケールの階調(輝度)で表示されている。強度が大きいほど、ピクセルは明るく表示されている。強度が小さいほど、ピクセルは暗く表示されている。画像131~134のいずれにおいても、肉の部分が周囲より明るく浮き出ている。ここでは、黒みの強い血合いのみあるサンプルを用いている。
 画像処理部12は、近赤外線画像134からG画像132のピクセル値をピクセルごとに減算した画像(NIR-G画像)、すなわち近赤外線画像134とG画像132との差分画像を生成する。画像処理部12は、NIR-G画像を二値化処理して二値化画像(NIR-G二値化画像)135を生成する。二値化処理の詳細は前述した通りである。
 図11の上側に、画像処理部12により生成されたNIR-G二値化画像135の例を示す。また、図11の下側に、R画像131からG画像132のピクセル値をピクセルごとに減算した画像(R-G画像)を二値化処理して得られる二値化画像(R-G二値化画像)136の例を示す。R-G画像は、R画像131とG画像132との差分画像に相当する。R-G二値化画像136は、NIR-G二値化画像135と対比するために示したものであり、本変形例においてR-G二値化画像136を生成することは必須ではない。
 NIR-G二値化画像135及びR-G二値化画像136において、ピクセル値が閾値以上のピクセルが白色、閾値未満のピクセルが黒色になっている。ピクセル値が閾値以上のピクセルの領域が、血合いの部位に対応する。
 図11下側のR-G二値化画像136を参照すると、丸で囲った領域139において黒みの強い血合いの箇所のピクセルが検出されているものの、丸で囲った領域138に示すように、現実には血合いの存在しない箇所にノイズ成分が多く現れている。これは、黒みの強い血合いを検出するために、R-G二値化画像136を生成する際に用いる閾値を低くしていることによる。
 これに対して、図11上側のNIR-G二値化画像135では、丸で囲った領域137において黒みの強い血合いの箇所のピクセルを検出しつつも、R-G二値化画像136の領域138に対応する領域において、ノイズ成分がさほど現れていない。これは、NIR-G画像では黒い血合いの箇所を強調できるため、NIR-G二値化画像135の生成の際の閾値を、R-G二値化画像136のように下げる必要がないためである。すなわち、NIR-G二値化画像135では、R-G二値化画像136よりも閾値を高くしている。このように、NIR-G二値化画像135を用いることで、ノイズ成分の低減と、黒みの強い血合いの検出精度の改善を両立できる。
 本変形例において、近赤外線画像の代わりに、他の画像を用いてもよい。例えば近赤外線以外の他赤外線(遠赤外線など)の画像、紫外線画像又は3次元画像を用いてもよい。他近赤外線の画像は、一例として、他赤外線に感度を有するセンサを備えたカメラを用いて撮影できる。紫外線画像は、一例として、紫外線に感度を有するセンサを備えたカメラを用いて撮影できる。3次元画像は、一例として、3Dカメラを用いて撮影することができる。
 また、本変形例では、近赤外線画像とG画像との演算(減算)を行ったが、演算対象とする画像の組合せは近赤外線画像とG画像の組に限定されない。すなわち、検出したい異物または欠陥を精度良く検出できる限り、任意の種類の画像の組を演算対象にできる。例えば、近赤外線画像、他赤外線の画像、紫外線画像、3次元画像、R画像、G画像、およびB画像の中から選択した2つ以上の画像を演算対象にできる。演算の種類は、減算に限定されず、加算、減算、乗算、除算、または、これらを組合せたものでもよい。また、演算を行う前に、画像に重み係数を乗じてもよい。
 第1の実施形態の各変形例は、本実施形態に対しても同様に適用される。
(第3の実施形態)
 第1および第2の実施形態では、検査補助情報を出力する情報出力装置としてディスプレイ3を用いたが、第3の実施形態では投影装置の一例であるプロジェクタを用いて、検査補助情報を、搬送される食品または搬送路に投影する。以下、本実施形態について詳細に説明する。
 図12は、第3の実施形態に係る食品検査補助システムの一例を示す。図1のディスプレイ3がプロジェクタ71に代わっている。プロジェクタ71は、検査区間内に搬送路の上方に設けられており、搬送面に向けて検査補助情報を投影する。それ以外の構成については、基本的に第1の実施形態と同様である。以下では、第1の実施形態からの変更または拡張された部分を中心に説明する。
 図13(A)は、撮影装置2による連続撮影の例を表している。搬送装置4により鶏肉(食品)21が搬送されており、撮影装置2内の撮影領域81に入ると、一定時間間隔で、複数回撮影(静止画の連写)が行われる。図では時刻t11、時刻t12、時刻t13で、計3回行われる例が示されている。複数回の撮影が行われている間も食品は移動しているため、撮影画像における食品の位置は少しずつ搬送方向に移動する。ここでは3回撮影しているが、1秒間に10回など、撮影の回数およびレートは任意に定めることができる。
 図14は、連続撮影された画像の例を示す。図14(A)が時刻t11での1回目の撮影画像91、図14(B)が時刻t12での2回目の撮影画像92、図14(C)が時刻t13での3回目の撮影画像93を示す。撮影画像91~93で撮影対象である食品が少しずつ搬送方向に移動している。
 撮影装置2は、連続撮影した複数の撮影画像を検査補助装置1に送る。検査補助装置1は第1の実施形態と同様にして、複数の撮影画像に対する複数の検査補助情報を生成する。各検査補助情報は、ここでは、第1の実施形態と同様、各撮影画像に枠データを配置したものとする。
 制御部13は、センサ24から食品の検出信号を受信すると、複数の検査補助情報が連続して(例えば一定時間間隔で)投影されるようプロジェクタ71を制御する。制御部13は、プロジェクタ71に複数の検査補助情報を一定時間間隔で出力する。プロジェクタ71は、制御部13から入力される複数の検査補助情報を一定時間間隔で順番に搬送路に対して投影する。プロジェクタ71の照射領域は、一例として、撮影装置2の撮影領域と同じサイズである。
 図13(B)にプロジェクタ71による投影の例を示す。搬送装置4により撮影装置2の筐体から出た鶏肉(食品)21が搬送され、プロジェクタ71の投影領域82に入ると、これに合わせて、プロジェクタ71から一定時間間隔で、複数の検査補助情報が投影される。図15に、連続投影される複数の検査補助情報の例を示す。図15(A)が時刻t21で1回目に投影される検査補助情報101、図15(B)が時刻t21で2回目に投影される検査補助情報102、図15(C)が時刻t23で3回目に撮影される検査補助情報103を示す。それぞれ、図14(A)~図14(C)の撮影画像に対応している。検査補助情報101~103内で食品が少しずつ搬送方向に移動しており、枠データ75もこれに合わせて同じだけ搬送方向に移動している。図15(A)~図15(B)の検査補助情報が順番に投影されると、図13(B)に示すように、搬送される食品に検査補助情報(食品画像および枠データ)が食品に重なるように投影される。プロジェクタ71の撮影が行われている間も食品は移動しているが、時刻t21、時刻t22、時刻t23で投影される検査補助情報に含まれる食品および枠も同じ速度で移動しているため、検査補助情報に含まれる食品および枠の画像は、食品の移動に拘わらず、食品の位置に合致するように投影される。したがって、搬送される食品に投影されている枠の中には異物(羽根)が含まれることとなる。作業者は食品に投影されている枠内に羽根があると分かるため、容易に羽根を特定できる。
 図16は、本発明の実施形態に係る動作の一例のフローチャートである。検査対象となる食品が撮影装置2の撮影領域に入ったことをセンサ23が検出すると(ステップS201)、センサ23は検出信号を制御部13に送る。制御部13はカメラ32に撮影の指示信号を出力する。カメラ32は、グリーンフィルタを介して食品を一定時間間隔で複数回撮影(連続撮影)し、制御部13は、複数の撮影画像を画像記憶部11に格納する(S202)。画像処理部12は、各撮影画像を画像処理する。具体的には、各撮影画像を画像処理した画像を生成する(S203)。
 検出処理部14は、画像処理された画像に基づき、エッジ検出を用いて、異物の検出処理を行う(S204)。ここでは、異物として羽根の検出処理を行う。具体的には、まず検出処理部14は、画像処理された画像を、閾値で二値化し、二値化画像を生成する。二値化画像に基づき、1(または0)のピクセル領域を羽根領域として特定する。
 補助情報生成部15は、特定された羽根領域の位置を表す情報を生成する(S205)。例えば、羽根を囲む枠データを生成し、枠データを撮影画像に配置した画像(検査補助情報)を生成する。
 制御部13は、複数の撮影画像に対して生成された複数の検査補助情報を受け取り、検査対象となった食品が検査区間を通過するタイミングで、複数の検査補助情報をプロジェクタ71に一定時間間隔で順番に出力する。これにより、複数の検査補助情報が一定時間間隔で搬送路を搬送される食品に投影される(S206)。これにより搬送路上の食品の移動に合わせて、投影される検査補助情報に含まれる枠データの位置を移動させることができるため、作業者は食品の異物(羽根)に投影される枠を途切れることなく、確認しつづけることができる。よって、作業者は、羽根を容易に特定し、除去できる。
 本実施形態では、カメラ32の撮影領域(撮影方向)およびプロジェクタ71の投影領域(投影方向)は固定であったが、食品を連続撮影する場合、カメラ32の向きを移動させながら、食品を撮影してもよい。同様に、プロジェクタ71の投影方向を移動させながら、複数の検査補助情報を順次投影してもよい。これにより、アングルが狭いカメラおよび照射角の狭いプロジェクタを用いることができる。
 本実施形態では、撮影画像に枠データを配置した画像を検査補助情報として食品に投影したが、枠データのみを含む画像(鶏肉を含まない画像)を、検査補助情報として生成し、食品に投影してもよい。
 本実施形態では、食品に検査補助情報を投影したが、搬送路に投影してもよい。例えば、搬送される食品の近傍(例えば右側、左側、上側、または下側など)の搬送路部分に、検査補助情報を投影してもよい。この場合も、搬送される食品に同期して、投影される情報の位置も移動する。これにより作業者は、搬送される食品の近傍に表示された検査補助情報を見ながら、検査を行うことができる。
 本実施形態では、情報出力装置として情報を光により投影するプロジェクタを用いたが、光ビームにより情報を投影するビーム投影器を用いてもよい。ビーム投影器を用いる場合、検出された異物の位置に対して光ビームを投影してもよい。また、異物を囲むように、投影するビームを移動させてもよい。いずれの場合も、搬送される食品に同期して、投影されるビームの投影位置も移動する。このように光ビームを投影することも、検査補助情報の表示の一形態である。
 第1の実施形態をベースに異物(羽根)を検出する場合を例に本実施形態をしたが、第2の実施形態のように欠陥(血合い等)を検出する場合にも本実施形態と同様の実施が可能である。
(第4の実施形態)
 第1~第3の実施形態では、撮影画像に基づき食品の異物または欠陥の検出処理を行い、検出結果に応じた検査補助情報を生成および表示した。これに対して、本実施形態では食品の特性情報を測定し、測定した特性情報に応じた検査補助情報を生成および表示する。これ以外については基本的にこれまでの実施形態と同様である。
 図17に、本実施形態に係る食品検査補助システムの一例を示す。第3の実施形態で用いた図12における撮影装置2が3次元カメラ(3Dカメラ)112に置換され、検出処理部14が測定処理部111に置換されている。図12と同じ名称の要素には同一の符号を付してある。以下、第3の実施形態から変更および拡張された点を中心に説明する。
 3Dカメラ112は、検査対象の食品を撮影する。3Dカメラ112はセンシング装置の一例である。3Dカメラ112は、食品のカラーと深度を測定し、3Dカメラ112の出力情報である3D画像を撮影画像として取得する。3D画像は、ピクセルごとのカラー情報と深度を含む。深度は、一例として、赤外線を照射するLEDと、反射した赤外線を受光するセンサとを用いて測定できる。センサ23が食品122を検出すると、センサ23が検出信号を制御部13に出力する。検出信号を受信した制御部13が3Dカメラ112に撮影の指示信号を出力し、3Dカメラ112が撮影を行う。撮影回数は、1回または複数回である。以下の説明では複数回撮影する(連続撮影する)場合を想定する。
 画像処理部12は、3D画像に前処理を行う。例えばノイズ成分を減らす処理(平均化)、コントラスト調整、濃淡調整などを行う。前処理を行わない構成も可能である。
 測定処理部111は、3D画像に基づき、食品の特性情報を測定する。例えば食品の重量を測定する。3D画像に基づき食品の体積を測定し、体積に食品(鶏肉)の平均密度を掛け合わせることで、重量を算出する。鶏肉の平均密度は、事前に測定処理部111に与えておくか、測定処理部111からアクセス可能なメモリ等の記憶部に格納しておく。重量以外に、鶏肉のサイズ(縦・横・高さの少なくとも1つ)を測定してもよい。また、鶏肉の脂肪比率を計算してもよい。例えば、輝度が一定値以上のピクセルの箇所(鶏肉の白っぽい部分)は深さ方向にすべて脂肪部分とみなし、鶏肉の全体の体積と脂肪部分の体積との比率から脂肪比率を計算する。なお、本実施形態では3Dカメラを使って食品の特性情報を測定しているが、可視光または紫外線などを用いて測定を行うことも可能である。また、3Dカメラで無く、センシング装置である重量センサを搬送装置4に配置し、重量センサで鶏肉の重量を検出してもよい。
 補助情報生成部15は、測定処理部111で測定された食品の特性情報に基づき、検査補助情報を生成する。具体的には、3次元画像、または深度情報を除いた2次元画像における鶏肉の位置に食品の特性情報を配置した(重ねた画像)を生成する。または、鶏肉と同じ位置に特性情報を配置した、鶏肉の画像が入っていない画像を生成してもよい。
 制御部13は、複数の撮影画像(3D画像)に対して生成された複数の検査補助情報を受け取る。制御部13は、センサ24から食品121の検出信号を受信すると、複数の検査補助情報が一定時間間隔で投影されるようプロジェクタ71を制御する。制御部13は、プロジェクタ71に複数の検査補助情報を一定時間間隔で出力する。プロジェクタ71は、制御部13から入力される複数の検査補助情報を一定時間間隔で順番に搬送路に対して投影する。プロジェクタ71の照射領域は、一例として、撮影装置2の撮影領域と同じサイズである。
 図18にプロジェクタ71による投影の例を示す。搬送装置4により鶏肉(食品)121が搬送され、プロジェクタ71の投影領域82に入ると、これに合わせて、プロジェクタ71から一定時間間隔で、複数の検査補助情報が投影される。第3の実施形態と同様に、搬送される食品に検査補助情報(食品の特性情報が含まれる)が食品に重なるように投影される。図の例では「398グラム」の文字データが、検査対象となる鶏肉121に投影されている。プロジェクタ71の撮影が行われている間も食品121は移動しているが、時刻t31、時刻t32、時刻t33で投影される検査補助情報に含まれる特性情報もこれに合わせるように移動し、特性情報は、食品の移動に拘わらず、食品に重なるように投影される。作業者は食品に投影されている重量の値を確認することで、鶏肉の重量が仕様で定められた範囲内にあるかを判断する。仕様に定められた範囲内にあるときは、その鶏肉は適性であるとして、そのまま回収装置4aに回収させる。仕様範囲外にあるときは、その鶏肉を搬送路から手で取り上げ、別途用意したケースに収容する。図の例では、仕様範囲内のため、作業者は問題ないと判断し、鶏肉121を見送っている。ケースに収容された鶏肉は後工程で、重量調整を行い、仕様範囲内にされる。あるいは、逆に仕様範囲内の鶏肉を取り上げて別途用意したケースに収容し、仕様範囲外の鶏肉を回収装置4aに回収させてもよい。
 図19は、本発明の実施形態に係る動作の一例のフローチャートである。検査対象となる食品が撮影装置2の撮影領域に入ったことをセンサ23が検出すると(ステップS301)、センサ23は検出信号を制御部13に送る。制御部13は3Dカメラ112に撮影の指示信号を出力する。3Dカメラ112は、一定時間間隔で複数回撮影(連続撮影)し、制御部13は、複数の撮影画像(3D画像)を画像記憶部11に格納する(S302)。画像処理部12は、各撮影画像に画像処理(ノイズ成分低減処理など)をする(S303)。
 検出処理部14は、画像処理された画像に基づき、食品の特性情報を測定する(S304)。例えば、食品の重量、サイズ、および脂肪比率のうち少なくとも1つを測定する。
 補助情報生成部15は、測定した特性情報を含む検査補助情報を生成する(S305)。
 制御部13は、複数の撮影画像に対して生成された複数の検査補助情報を受け取り、検査対象となった食品が検査区間を搬送されるタイミングで、複数の検査補助情報をプロジェクタ71に一定時間間隔で順番に出力する(S306)。プロジェクタ71は、複数の検査補助情報を一定時間間隔で投影する(同S306)。これにより搬送路上の食品の移動に合わせて、投影される検査補助情報に含まれる特性情報の位置を移動させることができるため、これらの特性情報が、搬送される食品の移動に合わせて、食品に投影される。作業者は食品に投影される情報(重量情報等)を途切れることなく、確認しつづけることができる。第3の実施形態で述べた各種の拡張例や変形例は、本実施形態にも適用可能である。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は例として提示したものであり、発明の範囲の限定することは意図していない、これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 食品検査補助装置
2 撮影装置
3 ディスプレイ
4 搬送装置
4a 回収装置
5 枠データ
11 画像記憶部
12 画像処理部
13 制御部
14 検出処理部
15 補助情報生成部
21、122,121 鶏肉(食品)
21a 異物(羽根)
23、24 センサ
27 作業者
28 アーム部材
30 領域
31、52 照明部
32、55 カメラ
33 フィルタ
34、54 開口部
53、56 偏光板
71:プロジェクタ
82:投影領域
111:測定処理部
112:3Dカメラ

Claims (17)

  1.  食品を搬送する搬送装置と、
     搬送される前記食品をセンシングするセンシング装置と、
     前記センシング装置の出力情報に基づいて、前記食品の検査補助情報を生成する補助情報生成部と、
     前記検査補助情報を表示する情報出力装置と、
     搬送される前記食品の検査が行われる検査区間へ前記食品が搬送されるまでの時間に基づき、前記検査補助情報を表示するタイミングを制御する制御部と、
     を備えた食品検査補助システム。
  2.  前記制御部は、前記食品が前記検査区間を搬送されるタイミングで前記検査補助情報を表示するよう制御する
     請求項1に記載の食品検査補助システム。
  3.  前記制御部は、前記検査区間を搬送される前記食品の移動と同期して、前記検査補助情報の表示位置を移動させる
     請求項2に記載の食品検査補助システム。
  4.  前記センシング装置は、搬送される前記食品を撮影し、
     前記センシング装置の撮影画像に基づき、異物または欠陥の検出処理を行う検出処理部を備え、
     前記補助情報生成部は、検出された異物または欠陥の位置を特定する情報を含む前記検査補助情報を生成する
     請求項1ないし3のいずれか一項に記載の食品検査補助システム。
  5.  前記補助情報生成部は、前記検出された異物または欠陥の位置を特定する情報として、前記検出された異物または欠陥の位置を指示するデータを生成し、前記検出された異物または欠陥の位置に対して前記データを配置した画像を含む前記検査補助情報を生成する
     請求項4に記載の食品検査補助システム。
  6.  前記検査補助情報は、前記検出された異物または欠陥のサイズ、および形状の少なくとも1つに関する情報をさらに含む
     請求項4または5に記載の食品検査補助システム。
  7.  前記センシング装置は、前記食品に紫外線を照射し、発生した蛍光をグリーンフィルタを通して検出することにより、前記食品を撮影する
     請求項4ないし6のいずれか一項に記載の食品検査補助システム。
  8.  前記検出処理部は、前記グリーンフィルタを介して撮影された画像に基づき二値化画像を生成し、前記二値化画像に基づき前記異物または前記欠陥を検出する
     請求項7に記載の食品検査補助システム。
  9.  前記撮影画像は、カラー画像を含み、
     前記検出処理部は、前記カラー画像に含まれる赤色画像と緑色画像との差分画像を生成し、前記差分画像に基づいて、前記異物または前記欠陥を検出する
     請求項4ないし6のいずれか一項に記載の食品検査補助システム。
  10.  前記撮影画像は、赤外線画像と、カラー画像とを含み、
     前記検出処理部は、前記赤外線画像と、前記カラー画像に含まれる緑色画像との差分画像を生成し、前記差分画像に基づいて、前記異物または前記欠陥を検出する
     請求項4ないし6のいずれか一項に記載の食品検査補助システム。
  11.  前記センシング装置は、前記食品の特性情報を検出し、前記検査補助情報は、前記特性情報を含み、前記特性情報は、前記食品の重量、サイズおよび脂肪比率のうちの少なくとも1つを含む
     請求項1ないし10のいずれか一項に記載の食品検査補助システム。
  12.  前記情報出力装置は、前記検査補助情報を画面に表示するディスプレイである 
     請求項1ないし10のいずれか一項に記載の食品検査補助システム。
  13.  前記情報出力装置は、前記検査区間における搬送路または前記検査区間を搬送される前記食品に対して、前記検査補助情報を投影して表示する投影装置である
     請求項1ないし10のいずれか一項に記載の食品検査補助システム。
  14.  前記センシング装置は、前記食品を連続撮影して複数の撮影画像を取得し、
     前記制御部は、前記複数の撮影画像に対応して得られた複数の前記検査補助情報を連続して表示するよう制御する
     請求項1ないし13のいずれか一項に記載の食品検査補助システム。
  15.  前記食品の通過を検出するセンサを備え、
     前記制御部は、前記センサにより前記食品が検出されたときに、前記検査補助情報を表示するよう制御する
     請求項1ないし14のいずれか一項に記載の食品検査補助システム。
  16.  搬送装置によって搬送される食品をセンシングするセンシング装置の出力情報を取得し、前記出力情報に基づいて、前記食品の検査補助情報を生成する補助情報生成部と、
     前記検査補助情報を表示する情報出力装置の表示タイミングを、搬送される前記食品の検査が行われる検査区間へ前記食品が搬送されるまでの時間に基づき、制御する制御部と、
     を備えた食品検査補助装置。
  17.  搬送装置によって搬送される食品をセンシングするセンシング装置の出力情報を取得するステップと、
     前記出力情報に基づいて、前記食品の検査補助情報を生成するステップと、
     前記検査補助情報を表示する情報出力装置の表示タイミングを、搬送される前記食品の検査が行われる検査区間へ前記食品が搬送されるまでの時間に基づき制御するステップと
     をコンピュータに実行させるためのコンピュープログラム。
PCT/JP2019/003366 2018-01-31 2019-01-31 食品検査補助システム、食品検査補助装置、およびコンピュータプログラム WO2019151394A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201980011140.XA CN111684268B (zh) 2018-01-31 2019-01-31 食品检验辅助系统、食品检验辅助装置和计算机程序
US16/966,177 US11830179B2 (en) 2018-01-31 2019-01-31 Food inspection assisting system, food inspection assisting apparatus and computer program
JP2019516024A JP7317702B2 (ja) 2018-01-31 2019-01-31 食品検査補助システム、食品検査補助装置、およびコンピュータプログラム
JP2022192930A JP7391173B2 (ja) 2018-01-31 2022-12-01 食品検査補助システム、食品検査補助装置、およびコンピュータプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-015921 2018-01-31
JP2018015921 2018-01-31

Publications (1)

Publication Number Publication Date
WO2019151394A1 true WO2019151394A1 (ja) 2019-08-08

Family

ID=67479322

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003366 WO2019151394A1 (ja) 2018-01-31 2019-01-31 食品検査補助システム、食品検査補助装置、およびコンピュータプログラム

Country Status (4)

Country Link
US (1) US11830179B2 (ja)
JP (2) JP7317702B2 (ja)
CN (1) CN111684268B (ja)
WO (1) WO2019151394A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111879712A (zh) * 2020-08-20 2020-11-03 合肥金果缘视觉科技有限公司 一种用于花生果的检测装置
CN112730421A (zh) * 2019-10-14 2021-04-30 富泰华工业(深圳)有限公司 外观瑕疵检测装置
WO2022005305A1 (en) * 2020-06-29 2022-01-06 Compac Technologies Limited An article indication system
WO2022009597A1 (ja) 2020-07-08 2022-01-13 帝人株式会社 成形体領域の検査プログラム、成形体領域の検査方法、成形体領域の検査装置
JP2022082331A (ja) * 2020-11-20 2022-06-01 朝日レントゲン工業株式会社 検査結果表示装置及び検査結果表示方法
JP2023063236A (ja) * 2021-10-22 2023-05-09 三星電子株式会社 超分光イメージセンサ及びその動作方法
KR102610505B1 (ko) * 2023-08-08 2023-12-06 주식회사 에이오팜 인공지능 기반의 농산물 외부 결함 측정 장치, 방법및 프로그램
WO2024084783A1 (ja) * 2022-10-17 2024-04-25 浜松ホトニクス株式会社 画像取得装置、検査装置、及び画像取得方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3801934B1 (en) * 2018-06-11 2023-08-02 Cryovac, LLC Process and system for in-line inspection of product stream for detection of foreign objects
CA3103239A1 (en) * 2018-07-02 2020-01-09 Marel Salmon A/S Detecting surface characteristics of food objects
US11445738B2 (en) * 2019-09-10 2022-09-20 Sheng-Chih CHANG Computer implemented food safety related management method
CN112730420B (zh) * 2019-10-14 2024-02-20 富泰华工业(深圳)有限公司 外观瑕疵检测工站
CN112198125A (zh) * 2020-10-27 2021-01-08 江南大学 一种基于红外增效的多功能果蔬切割检测系统及方法
JP7299570B2 (ja) * 2020-12-18 2023-06-28 学校法人 名城大学 土中異物除去装置及び土中異物除去方法
US11599984B2 (en) * 2021-04-29 2023-03-07 Syscom, Inc. Methods and apparatus for detecting defects for poultry piece grading
DE102021112584A1 (de) * 2021-05-14 2022-11-17 Thomas Fritsch Inspektionsverfahren zur Erfassung von Fremdkörpern und/oder Materialinhomogenitäten
LU501123B1 (en) * 2021-12-29 2023-06-29 Analitica D O O Apparatus and method for detecting polymer objects and/or chemical additives in food products
FR3143809A1 (fr) * 2022-12-20 2024-06-21 Trayvisor Système et procédé d’acquisition d’une pluralité d’images et système et procédé d’identification associé

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6040939A (ja) * 1983-06-13 1985-03-04 デ、フオレネデ、ブリゲリエル、ア−/エス 魚、牛、豚および家禽からの製品の品質制御を行なう方法
JPH1048141A (ja) * 1996-08-07 1998-02-20 Kyowa Kikai Kk 検卵時の不良卵表示装置
JP2002228593A (ja) * 2001-02-06 2002-08-14 Nippon Steel Corp 疵検査結果表示装置
JP2006177890A (ja) * 2004-12-24 2006-07-06 Jt Engineering Inc 異物検査装置
US20060156878A1 (en) * 2004-12-30 2006-07-20 David Faires Portioning apparatus and method
WO2008102148A1 (en) * 2007-02-22 2008-08-28 Ishida Europe Limited Method and apparatus for handling food pieces
JP2009115613A (ja) * 2007-11-06 2009-05-28 Hitachi High-Tech Control Systems Corp 異物検査装置
JP2010505397A (ja) * 2006-10-06 2010-02-25 ノルデイシェル・マシーネンバウ・ルド・バアデル・ゲーエムベーハー・ウント・コンパニ・カーゲー 加工ラインに沿って搬送される魚、鶏肉又は他の肉製品を加工する方法及び装置
WO2014079448A1 (en) * 2012-11-22 2014-05-30 Attec Danmark A/S A method and a means for controlling and allowing removal of foreign matter from food products
WO2017174768A1 (en) * 2016-04-08 2017-10-12 Teknologisk Institut System for registration and presentation of performance data to an operator
JP2017211325A (ja) * 2016-05-27 2017-11-30 株式会社ニレコ 欠点検査方法及び欠点検査装置
JP2017215264A (ja) * 2016-06-01 2017-12-07 フロンティアシステム株式会社 欠陥検査装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IS1279B6 (is) * 1983-06-13 1987-07-07 Fmc Corporation Aðferð til gæðaeftirlits með framleiðslu úr fiski, nautgripum, svínum og alifuglum
DK170845B1 (da) 1994-02-01 1996-02-05 Slagteriernes Forskningsinst Anlæg, apparat og fremgangsmåde til on-line bestemmelse af kvalitetsegenskaber ved kødstykker
US6587575B1 (en) 2001-02-09 2003-07-01 The United States Of America As Represented By The Secretary Of Agriculture Method and system for contaminant detection during food processing
NL1018566C2 (nl) 2001-07-17 2003-01-20 Stork Pmt Werkwijze voor het verwerken van gevogelte.
US6992771B2 (en) 2001-11-28 2006-01-31 Battelle Memorial Institute Systems and techniques for detecting the presence of foreign material
CN100483125C (zh) * 2003-10-30 2009-04-29 德克工程株式会社 混合型夹杂物检测装置及其追踪用系统
JP2005233636A (ja) 2004-02-17 2005-09-02 Shimadzu Corp 食肉の脂肪交雑検査方法及び装置
US7460227B1 (en) 2004-12-30 2008-12-02 The United States Of America As Represented By The Secretary Of Agriculture Method to detect bone fragments during the processing of meat or fish
JP2008541007A (ja) * 2005-06-03 2008-11-20 株式会社前川製作所 食品の異物検出装置
US20070238147A1 (en) 2006-03-24 2007-10-11 Nippon Suisan Kaisha, Ltd. Method of detecting foreign matter
JP2007286041A (ja) 2006-03-24 2007-11-01 Nippon Suisan Kaisha Ltd 異物の検出方法
JP5041751B2 (ja) * 2006-07-24 2012-10-03 株式会社イシダ X線検査装置およびx線検査プログラム
US7860277B2 (en) 2007-04-10 2010-12-28 Bizerba Gmbh & Co. Kg Food product checking system and method for identifying and grading food products
US8351672B2 (en) * 2007-09-26 2013-01-08 Industry Vision Automation Corp. Machine imaging apparatus and method for detecting foreign materials
US8284248B2 (en) * 2009-08-25 2012-10-09 Frito-Lay North America, Inc. Method for real time detection of defects in a food product
JP5455409B2 (ja) * 2009-03-30 2014-03-26 日立造船株式会社 異物選別方法および異物選別設備
JP5467830B2 (ja) * 2009-09-18 2014-04-09 浜松ホトニクス株式会社 放射線検出装置
JP5466099B2 (ja) 2010-06-23 2014-04-09 パナソニック株式会社 外観検査装置
CN103906754A (zh) 2011-11-02 2014-07-02 三菱化学株式会社 稠合多环芳香族化合物的制造方法和共轭高分子
JP5948797B2 (ja) * 2011-11-07 2016-07-06 オムロン株式会社 検査結果の目視確認作業の支援用のシステムおよび装置ならびに方法
US9014434B2 (en) * 2012-11-26 2015-04-21 Frito-Lay North America, Inc. Method for scoring and controlling quality of food products in a dynamic production line
JP5974870B2 (ja) * 2012-12-03 2016-08-23 株式会社 日立産業制御ソリューションズ 製品画像検査装置および製品画像検査方法
JP2014173982A (ja) * 2013-03-08 2014-09-22 Zensho Holdings Co Ltd 食物検査装置及び食物検査システム
BR112017001407A2 (pt) 2014-07-21 2019-11-12 7386819 Manitoba Ltd método e dispositivo para varredura óssea em carne
JP2016090476A (ja) * 2014-11-07 2016-05-23 住友電気工業株式会社 異物検出方法
JP2017133953A (ja) * 2016-01-28 2017-08-03 住友電気工業株式会社 錠剤検査装置
JP2017142133A (ja) 2016-02-09 2017-08-17 株式会社イシダ 光検査装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6040939A (ja) * 1983-06-13 1985-03-04 デ、フオレネデ、ブリゲリエル、ア−/エス 魚、牛、豚および家禽からの製品の品質制御を行なう方法
JPH1048141A (ja) * 1996-08-07 1998-02-20 Kyowa Kikai Kk 検卵時の不良卵表示装置
JP2002228593A (ja) * 2001-02-06 2002-08-14 Nippon Steel Corp 疵検査結果表示装置
JP2006177890A (ja) * 2004-12-24 2006-07-06 Jt Engineering Inc 異物検査装置
US20060156878A1 (en) * 2004-12-30 2006-07-20 David Faires Portioning apparatus and method
JP2010505397A (ja) * 2006-10-06 2010-02-25 ノルデイシェル・マシーネンバウ・ルド・バアデル・ゲーエムベーハー・ウント・コンパニ・カーゲー 加工ラインに沿って搬送される魚、鶏肉又は他の肉製品を加工する方法及び装置
WO2008102148A1 (en) * 2007-02-22 2008-08-28 Ishida Europe Limited Method and apparatus for handling food pieces
JP2009115613A (ja) * 2007-11-06 2009-05-28 Hitachi High-Tech Control Systems Corp 異物検査装置
WO2014079448A1 (en) * 2012-11-22 2014-05-30 Attec Danmark A/S A method and a means for controlling and allowing removal of foreign matter from food products
WO2017174768A1 (en) * 2016-04-08 2017-10-12 Teknologisk Institut System for registration and presentation of performance data to an operator
JP2017211325A (ja) * 2016-05-27 2017-11-30 株式会社ニレコ 欠点検査方法及び欠点検査装置
JP2017215264A (ja) * 2016-06-01 2017-12-07 フロンティアシステム株式会社 欠陥検査装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112730421A (zh) * 2019-10-14 2021-04-30 富泰华工业(深圳)有限公司 外观瑕疵检测装置
CN112730421B (zh) * 2019-10-14 2024-01-09 富泰华工业(深圳)有限公司 外观瑕疵检测装置
WO2022005305A1 (en) * 2020-06-29 2022-01-06 Compac Technologies Limited An article indication system
WO2022009597A1 (ja) 2020-07-08 2022-01-13 帝人株式会社 成形体領域の検査プログラム、成形体領域の検査方法、成形体領域の検査装置
CN111879712A (zh) * 2020-08-20 2020-11-03 合肥金果缘视觉科技有限公司 一种用于花生果的检测装置
JP2022082331A (ja) * 2020-11-20 2022-06-01 朝日レントゲン工業株式会社 検査結果表示装置及び検査結果表示方法
JP7304077B2 (ja) 2020-11-20 2023-07-06 朝日レントゲン工業株式会社 検査結果表示装置及び検査結果表示方法
JP2023063236A (ja) * 2021-10-22 2023-05-09 三星電子株式会社 超分光イメージセンサ及びその動作方法
US11971299B2 (en) 2021-10-22 2024-04-30 Samsung Electronics Co., Ltd. Hyperspectral image sensor and operating method thereof
WO2024084783A1 (ja) * 2022-10-17 2024-04-25 浜松ホトニクス株式会社 画像取得装置、検査装置、及び画像取得方法
KR102610505B1 (ko) * 2023-08-08 2023-12-06 주식회사 에이오팜 인공지능 기반의 농산물 외부 결함 측정 장치, 방법및 프로그램

Also Published As

Publication number Publication date
CN111684268A (zh) 2020-09-18
JPWO2019151394A1 (ja) 2020-12-03
US20210035276A1 (en) 2021-02-04
CN111684268B (zh) 2023-10-20
JP7317702B2 (ja) 2023-07-31
JP2023039957A (ja) 2023-03-22
JP7391173B2 (ja) 2023-12-04
US11830179B2 (en) 2023-11-28

Similar Documents

Publication Publication Date Title
JP7391173B2 (ja) 食品検査補助システム、食品検査補助装置、およびコンピュータプログラム
WO2019151393A1 (ja) 食品検査システム、食品検査プログラム、食品検査方法および食品生産方法
KR101656635B1 (ko) 어종 판별 장치 및 어종 판별 방법
JP5884144B1 (ja) 包装体の検査装置
EP3801934B1 (en) Process and system for in-line inspection of product stream for detection of foreign objects
JP2008541007A (ja) 食品の異物検出装置
JP2009115613A (ja) 異物検査装置
CN111239142A (zh) 膏体外观缺陷检测设备及方法
JP5884145B1 (ja) 電磁波検知部と光学検知部を使用した検査装置
JP2016156647A (ja) 電磁波を使用した検査装置
JP2003279503A (ja) X線検査装置
JP2019203701A (ja) パック詰めされた卵の検査装置
JP2011033612A (ja) 農産物検査装置
JP3614980B2 (ja) 農産物の外観検査方法及び装置
JP2004245695A (ja) 画像処理方法と異物検出装置
CN111458344A (zh) 一种口罩缺陷视觉检测方法、设备、存储介质
KR20200105109A (ko) 다분광 형광 영상을 이용한 가공 채소류 측 이물질 검출시스템 및 검출방법
JP2019203845A (ja) 汚卵検出装置
EP4130725A1 (en) Foreign matter inspection device
JP2016075660A (ja) ゆで卵品質判定装置
US20210100256A1 (en) Foreign Material Inspection System
KR102394422B1 (ko) Nir 스펙트럼 영상 기술을 이용한 식품 표면 이물 검사 광학장치
EP4372677A1 (en) System and method for detecting an unwanted structure in one or more x-ray images of a food product
JP7318907B2 (ja) 単板判定システムおよび単板の判定方法
CN212180649U (zh) 膏体外观缺陷检测设备

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019516024

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19747413

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19747413

Country of ref document: EP

Kind code of ref document: A1