WO2022244075A1 - 検査システム - Google Patents

検査システム Download PDF

Info

Publication number
WO2022244075A1
WO2022244075A1 PCT/JP2021/018652 JP2021018652W WO2022244075A1 WO 2022244075 A1 WO2022244075 A1 WO 2022244075A1 JP 2021018652 W JP2021018652 W JP 2021018652W WO 2022244075 A1 WO2022244075 A1 WO 2022244075A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
observation
model
movement trajectory
series data
Prior art date
Application number
PCT/JP2021/018652
Other languages
English (en)
French (fr)
Inventor
あずさ 澤田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/018652 priority Critical patent/WO2022244075A1/ja
Priority to JP2023522022A priority patent/JPWO2022244075A1/ja
Publication of WO2022244075A1 publication Critical patent/WO2022244075A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/90Investigating the presence of flaws or contamination in a container or its contents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an inspection system, an inspection method, and a recording medium.
  • An inspection system has been proposed that inspects the presence or absence of foreign matter in a liquid sealed in a transparent or translucent container.
  • Non-Patent Document 1 a method and apparatus for predicting the certainty of the identification result output by the identification model configured by the deep neural network for image identification has been proposed (see, for example, Non-Patent Document 1). Specifically, when an image is input to a trained discriminant model, intermediate feature values extracted from the discriminative model and true class probability (TCP: True Class Probability) are used as teacher data, and the input is obtained from the discriminative model. A machine-learned confidence prediction model is used so that the output is the confidence of the discrimination result of the discrimination model.
  • TCP True Class Probability
  • the identification results of models that identify types of objects are not always 100% reliable and may be incorrect. There is a possibility that It is important to be able to predict the certainty of the identification results of the identification model, especially in applications where failures can have a serious impact, such as the inspection of foreign substances in liquid pharmaceuticals such as injectable preparations.
  • Non-Patent Document 1 when an image to be identified is input to a trained identification model, intermediate feature amounts and true class probabilities extracted from the identification model are used as teacher data, and the confidence prediction model to learn.
  • a configuration that trains a confidence prediction model using input images (intermediate features of them) as training data it is difficult to differentiate the confidences of multiple results estimated from multiple similar input images. be. Therefore, in the method described in Non-Patent Document 1, a difference is added to the confidence of the result estimated from time-series data representing mutually similar movement trajectories obtained by insufficient observation from a plurality of different types of objects. It is difficult.
  • the present invention is to provide an inspection system that solves the above problems.
  • An inspection system includes: Time-series data representing the movement trajectory of an object obtained by observation and the type of the object are used as first teacher data, and the time-series data representing the movement trajectory of the object obtained by observation are used to determine the object.
  • a discriminative model learning means for learning a discriminative model for estimating the type of A time series representing the movement trajectory of an object obtained by observation using time-series data representing the movement trajectory of an object obtained by observation, its observation specifications, and the type of the object as second teacher data.
  • a certainty prediction model learning means for learning a certainty prediction model for predicting the certainty of an estimation result of the discriminative model from data observation specifications; Using the learned discrimination model, estimating the type of the object from time series data representing the movement trajectory of the object obtained by observation, and using the learned confidence prediction model, the time series determination means for predicting the confidence level of the estimation result of the discriminative model from observation data data; is configured to include
  • an inspection method includes: Time-series data representing the movement trajectory of an object obtained by observation and the type of the object are used as first teacher data, and the time-series data representing the movement trajectory of the object obtained by observation are used to determine the object. learn a discriminant model that estimates the type of A time series representing the movement trajectory of an object obtained by observation using time-series data representing the movement trajectory of an object obtained by observation, its observation specifications, and the type of the object as second teacher data.
  • a computer-readable recording medium includes to the computer, Time-series data representing the movement trajectory of an object obtained by observation and the type of the object are used as first teacher data, and the time-series data representing the movement trajectory of the object obtained by observation are used to determine the object.
  • a process of learning a discriminative model that estimates the type of A time series representing the movement trajectory of an object obtained by observation using time-series data representing the movement trajectory of an object obtained by observation, its observation specifications, and the type of the object as second teacher data.
  • the present invention by having the configuration as described above, even when time-series data representing a plurality of mutually similar movement trajectories obtained by observation from a plurality of objects of different types, the observation specifications are different. If so, we can differentiate between the confidences of the results estimated from the time-series data.
  • FIG. 1 is a block diagram of an inspection system according to a first embodiment of the present invention
  • FIG. It is a block diagram showing an example of an inspection device in a 1st embodiment of the present invention.
  • 4 is a diagram showing a configuration example of image information according to the first embodiment of the present invention.
  • FIG. It is a figure which shows the structural example of the tracking information in the 1st Embodiment of this invention. It is a figure which shows the structural example of the inspection result information in the 1st Embodiment of this invention.
  • FIG. 4 is a schematic diagram showing an example of a method of creating teacher data used for machine learning of a certainty prediction model according to the first embodiment of the present invention
  • 4 is a flow chart showing an example of operation in a learning phase according to the first embodiment of the present invention
  • FIG. 4 is a flow chart showing an example of operation in an inspection phase in the first embodiment of the present invention
  • FIG. 7 is a schematic diagram showing another example of a method of creating teacher data used for machine learning of a certainty prediction model according to the first embodiment of the present invention
  • FIG. 11 is a schematic diagram showing an example of a method of learning a discriminant model according to Modification 3 of the first embodiment of the present invention
  • FIG. 10 is a schematic diagram showing an example of a method of creating teacher data used for machine learning of a certainty prediction model in Modification 4 of the first embodiment of the present invention.
  • FIG. 11 is a schematic diagram showing an example of a method of creating teacher data used for machine learning of a certainty prediction model in Modification 5 of the first embodiment of the present invention.
  • FIG. 11 is a schematic diagram showing an example of a discrimination model used in modification 6 of the first embodiment of the present invention;
  • FIG. 4 is a block diagram of an inspection system according to a second embodiment of the present invention; FIG.
  • FIG. 1 is a block diagram of an inspection system 100 according to the first embodiment of the invention.
  • an inspection system 100 is a system for inspecting the presence or absence of foreign matter in a liquid enclosed in a container 400 .
  • the inspection system 100 includes a grasping device 110, an illumination device 120, a camera device 130, an inspection device 200, and a display device 300 as main components.
  • a container 400 is a transparent or translucent container such as a glass bottle or a PET bottle.
  • the inside of the container 400 is sealed and filled with a liquid such as a medicine or water.
  • the liquid enclosed in the container 400 may contain foreign matter. Examples of foreign matter include pieces of glass, pieces of plastic, pieces of rubber, hair, pieces of fiber, soot, and the like.
  • the gripping device 110 is configured to grip the container 400 in a predetermined posture.
  • the predetermined posture is arbitrary.
  • the predetermined posture may be the posture when the container 400 is upright.
  • the predetermined posture may be a posture in which the container 400 is tilted at a predetermined angle from the upright posture.
  • the upright posture of the container 400 is assumed to be the predetermined posture.
  • a mechanism for holding the container 400 in an upright position is optional.
  • the gripping mechanism includes a pedestal on which the container 400 is placed in an upright position, and a member that presses the upper surface of the cap 401 that is the top of the container 400 placed on the pedestal. It's okay.
  • the gripping device 110 is configured to tilt, swing, or rotate the container 400 in a predetermined direction from an upright position while gripping the container 400 .
  • a mechanism for tilting, swinging, and rotating the container 400 is arbitrary.
  • the mechanism for tilting, swinging, and rotating may include a motor that tilts, swings, and rotates the entire gripping mechanism while gripping the container 400 .
  • the gripping device 110 is connected to the inspection device 200 by wire or wirelessly.
  • the gripping device 110 tilts, swings, and rotates the container 400 in a predetermined direction from an upright posture while gripping the container 400 .
  • the gripping device 110 stops tilting, swinging, and rotating the container 400, and returns to gripping the container 400 in an upright posture.
  • the illumination device 120 is configured to irradiate the liquid sealed in the container 400 with illumination light.
  • the illumination device 120 is, for example, a surface light source having a size corresponding to the size of the container 400 .
  • the illumination device 120 is installed on the opposite side of the container 400 to the side where the camera device 130 is installed. That is, illumination by the illumination device 120 is transmitted illumination.
  • the position of the illumination device 120 is not limited to this.
  • the camera device 130 is a photographing device that continuously photographs the liquid in the container 400 at a predetermined frame rate from a predetermined position on the opposite side of the container 400 where the lighting device 120 is installed.
  • the camera device 130 may include, for example, a color camera equipped with a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary MOS) image sensor having a pixel capacity of several million pixels.
  • Camera device 130 is connected to inspection device 200 by wire or wirelessly.
  • the camera device 130 is configured to transmit time-series images obtained by photographing to the inspection device 200 together with information indicating photographing times.
  • the display device 300 is a display device such as an LCD (Liquid Crystal Display).
  • the display device 300 is connected to the inspection device 200 by wire or wirelessly.
  • the display device 300 is configured to display the inspection result of the container 400 performed by the inspection device 200 and the like.
  • the inspection device 200 is an information processing device that performs image processing on time-series images captured by the camera device 130 and inspects the presence or absence of foreign matter in the liquid enclosed in the container 400 . Inspection device 200 is connected to grasping device 110, camera device 130, and display device 300 by wire or wirelessly.
  • FIG. 2 is a block diagram showing an example of the inspection device 200.
  • the inspection device 200 includes a communication I/F section 210 , an operation input section 220 , a storage section 230 and an arithmetic processing section 240 .
  • the communication I/F unit 210 is composed of a data communication circuit, and is configured to perform wired or wireless data communication with the gripping device 110, the camera device 130, the display device 300, and other external devices (not shown). ing.
  • the operation input unit 220 is composed of an operation input device such as a keyboard and a mouse, and is configured to detect an operator's operation and output it to the arithmetic processing unit 240 .
  • the storage unit 230 is composed of one or more types of storage devices such as hard disks and memories, and is configured to store processing information and programs 231 necessary for various processes in the arithmetic processing unit 240 .
  • the program 231 is a program that realizes various processing units by being read and executed by the arithmetic processing unit 240, and is transmitted from an external device (not shown) or a recording medium via a data input/output function such as the communication I/F unit 210. It is read in advance and stored in the storage unit 230 .
  • Main processing information stored in the storage unit 230 includes image information 232 , tracking information 233 , identification model 234 , confidence prediction model 235 , and inspection result information 236 .
  • the image information 232 includes time-series images obtained by continuously photographing the liquid in the container 400 with the camera device 130 . If floating matter exists in the liquid in the container 400, the image information 232 shows an image of the floating matter.
  • FIG. 3 shows a configuration example of the image information 232.
  • FIG. The image information 232 in this example is composed of an entry consisting of a set of a container ID 2321 , photographing time 2322 and frame image 2323 .
  • An ID for uniquely identifying the container 400 to be inspected is set in the container ID 2321 item.
  • As the container ID 2321 a serial number assigned to the container 400, a barcode attached to the container 400, fingerprint information collected from the cap 401 of the container 400, or the like can be considered.
  • the shooting time 2322 and the frame image 2323 are set with the shooting time and the frame image.
  • the photographing time 2322 is set to a precision (for example, in units of milliseconds) that can be distinguished from other frame images with the same container ID.
  • the photographing time 2322 for example, the elapsed time from when the container 400 stopped tilting, swinging, or rotating may be used.
  • the container ID 2321 is associated with each frame image 2323 in the example of FIG. 3, the container ID 2321 may be associated with each group of a plurality of frame images 2323 .
  • the tracking information 233 includes time-series data representing the moving trajectory of the suspended matter detected and tracked by detecting the image of the suspended matter present in the liquid in the container 400 shown in the image information 232 and its observation specifications.
  • Observation specifications include, for example, the length of the observed trajectory, the size of the observed floating object, the start time of the observed trajectory, the location in the container 400 where the observed trajectory existed, and the trajectory.
  • the trace information 233 in this example is composed of entries of a container ID 2331, a set of a trace ID 2332, a pointer 2333-1 and a pointer 2333-2.
  • An ID that uniquely identifies the container 400 is set in the container ID 2331 entry.
  • An entry consisting of a set of tracking ID 2332, pointer 2333-1 and pointer 2333-2 is provided for each floating object to be tracked.
  • An ID for distinguishing the tracked floating matter from other floating matter in the same container 400 is set in the tracking ID 2332 item.
  • a pointer to the movement locus information 2334 of the floating object to be tracked is set in the pointer 2333-1 item.
  • a pointer to the observation item list 2335 of the moving trajectory information of the floating object to be tracked is set in the pointer 2333-2 item.
  • the movement trajectory information 2334 consists of an entry consisting of a set of time 23341, position information 23342, size 23343, color 23344, and shape 23345.
  • the items of time 23341, position information 23342, size 23343, color 23344, and shape 23345 include the photographing time, coordinate values indicating the position of the tracked floating object at the photographing time, the size of the floating object, the color of the floating object, and the like.
  • the shape of the float is set.
  • the coordinate values may be, for example, coordinate values in a predetermined coordinate system.
  • the predetermined coordinate system may be a camera coordinate system centered on the camera, or a world coordinate system centered on a certain position in space.
  • Entries in the trajectory information 2334 are arranged in order of time 23341 .
  • the time 23341 of the top entry is the tracking start time.
  • the time 23341 of the last entry is the tracking end time.
  • the times 23341 of entries other than the first and last entries are tracking intermediate times.
  • the observation item list 2335 is a list of observation items considered to be related to the degree of certainty of the type of floating matter estimated from the movement trajectory information 2334 .
  • the observation specification list 2335 of this example is composed of entries each consisting of a set of a tracking length 23351, a floating object size 23352, a tracking start time 23353, a tracking area 23354, and a moving trajectory information quality 23355 related to the trajectory information 2334. It is
  • the length of the trajectory indicated by the trajectory information 2334 is set in the tracking length 23351 item.
  • the length of the movement trajectory may be the number of entries (that is, the number of frame images) forming the movement trajectory information 2334, or the length of time from the tracking start time to the tracking end time. It is considered that the longer the movement trajectory of a floating object is observed, the higher the probability that the movement corresponding to the type of the floating object appears in the movement trajectory. On the other hand, it is considered that a floating object with a short moving trajectory has a low probability that a movement corresponding to the type of the floating object appears in the moving trajectory. Therefore, the tracking length 23351 can be one of the observation parameters related to the degree of certainty of the type of floating matter estimated from the moving trajectory.
  • a value obtained by statistically processing the size 23343 included in the movement trajectory information 2334 (for example, average value, maximum value, minimum value, median value) is set in the item of the size 23352 of the floating object.
  • Large-sized foreign matter tends to settle early after the tilting, rocking, and rotation of the container 400 are stopped. Therefore, the size 23352 of the floating object can be one of the observation parameters related to the certainty of the type of floating object estimated from the movement trajectory.
  • the tracking start time of the movement trajectory information 2334 is set in the tracking start time 23353 item.
  • the tracking start time is a value representing the length of elapsed time from the time when the container 400 stops tilting, rocking, or rotating to the time when tracking of the movement trajectory information 2334 is started. It is considered that the earlier the tracking start time 23353 is, the more likely it is to be affected by the flow of the liquid, so it will take longer for the movement corresponding to the type of floating matter to appear in the movement trajectory. On the other hand, if the tracking start time 23353 is delayed, the influence of the liquid flow is reduced, so it is considered that the probability that movement corresponding to the type of floating matter will appear in the movement trajectory increases. Therefore, the tracking start time 23353 can be one of the observation parameters related to the certainty of the type of floating matter estimated from the movement trajectory.
  • a value indicating in which area within the container 400 the movement trajectory indicated by the movement trajectory information 2334 is set is set in the item of the tracking region 23354 .
  • Tracking regions are also called observation locations.
  • the tracking area 23354 may be, for example, a value specifying the circumscribing rectangle of the movement trajectory (for example, a coordinate value of the vertex of the circumscribing rectangle), or the shortest distance from the circumscribing rectangle to the liquid surface, wall surface, or bottom surface of the container 400. It may be a value representing Near the liquid surface of the container 400, it is difficult to correctly detect foreign matter due to the influence of air bubbles floating on the liquid surface. Moreover, it is not easy to correctly detect floating matter near the wall surface of the container 400 due to the lens effect.
  • the region in the container 400 in which the movement trajectory is located affects the reliability of the movement trajectory and the degree of certainty of the type of floating matter estimated from the movement trajectory.
  • the quality of the trajectory information 2334 is set in the trajectory information quality 23355 item.
  • the quality of the trajectory information 2334 may be determined, for example, based on the discontinuity of the position information 23342 included in the trajectory information 2334 and the amount of variation in the size 23343/color 23344/shape 23345 .
  • the movement trajectory information 2334 with excessive size variation and positional discontinuity that are expected to result in uncertain detection and tracking has poor reliability as a movement trajectory resulting from tracking the same floating object. Therefore, the quality 23355 of trajectory information can be one of the observation parameters related to the certainty of the type of floating object estimated from the trajectory.
  • observation specifications used in the present invention are not limited to the above. Confidence in the types of floating objects estimated from their movement trajectories, such as conditions that make it difficult to correctly evaluate features even though they are not directly included in the feature values of the discriminative model, and conditions that may increase exceptional errors due to failures in the observation itself. Any other observational dimension may be used as long as it is related to .
  • the observation specifications to be used may be determined from the characteristics of the observation (such as conditions under which the assumptions assumed in the detection/tracking process collapse), or conditions estimated from actual errors (such as conditions where the basis for identification cannot be clearly read). It's okay.
  • the identification model 234 is a model for estimating the type of floating matter from the time-series data representing the moving trajectory of the floating matter.
  • the discriminative model 234 may be configured using, for example, a recursive structure of neural networks such as RNN and LSTM.
  • the identification model 234 may use padding, pooling and resizing to result in identification of fixed length data.
  • the certainty prediction model 235 is a model that predicts the certainty of the result estimated by the discriminative model 234 based on the observation specifications of the time series data representing the movement trajectory of the floating object based on the time series data related to the observation specifications. is.
  • the certainty prediction model 235 may be constructed using, for example, a neural network.
  • confidence prediction model 235 may be a linear discriminator, decision tree, or the like.
  • the inspection result information 236 includes information according to the result of inspection for the presence or absence of foreign matter in the liquid sealed in the container 400 .
  • the inspection results include the estimation result of the type of floating matter calculated by the discrimination model 234 and the confidence factor of the estimation result of the discrimination model 234 calculated by the confidence prediction model 235 .
  • FIG. 5 shows a configuration example of the inspection result information 236.
  • the inspection result information 236 in this example is obtained from entries of a container ID 2361, an inspection result 2362, the number of detected foreign matter 2363, the number of detected air bubbles 2364, a set of a detected foreign matter ID 2365 and a pointer 2366, and a set of a detected air bubble ID 2367 and a pointer 2368. It is configured.
  • the entry of the container ID 2361 is set with an ID that uniquely identifies the container 400 to be inspected.
  • the entry of the inspection result 2362 is set with an inspection result of either OK (inspection passed) or NG (inspection unsuccessful).
  • the entry of the number of detected foreign matter 2363 is set with the total number of detected foreign matter.
  • the total number of detected bubbles is set in the entry of the number of detected bubbles 2364 .
  • the identification result may include an aggregate of components in the liquid in addition to air bubbles and foreign matter.
  • An entry of a set of detected foreign object ID 2365 and pointer 2366 is provided for each detected foreign object.
  • An ID for distinguishing the detected foreign matter from other foreign matter in the same container 400 is set in the item of the detected foreign matter ID 2365 .
  • a pointer to the detected foreign matter information 2369 of the detected foreign matter is set in the pointer 2366 item.
  • An entry of a pair of detected bubble ID 2367 and pointer 2368 is provided for each detected bubble.
  • An ID for distinguishing the detected bubble from other bubbles in the same container 400 is set in the item of detected bubble ID 2367 .
  • a pointer to the detected bubble information 2370 of the detected bubble is set in the pointer 2368 item.
  • the detected foreign matter information 2369 is composed of a set of a tracking ID 23691, a pointer 23692-1 and a pointer 23692-2, a judgment result 23693, a degree of certainty 23694, and a visualized image 23695.
  • the trace ID 23691 field contains the trace ID 2332 of the detected foreign matter.
  • a pointer to the movement locus information 23696 of the detected foreign object is set in the pointer 23692-1 item.
  • Movement trajectory information 23696 is a copy of movement trajectory information 2334 during tracking of the detected foreign object.
  • a pointer to an observation specification list 23697 related to the movement trajectory information 23696 of the detected foreign object is set.
  • the observation item list 23697 is a copy of the observation item list 2335 related to the movement trajectory information 2334 during tracking of the detected foreign object.
  • text indicating that the determination result is "foreign matter” is set.
  • the entry of the degree of certainty 23694 is set with the degree of certainty, which is an index representing the certainty of the determination result 23693 .
  • At least one image that visualizes the movement trajectory information 23696 of the detected foreign matter is set in the entry of the visualized image 23695 .
  • the detected air bubble information 2370 consists of a set of tracking ID 23701, pointer 23702-1 and pointer 23702-2, determination result 23703, certainty 23704, and visualized image 23705.
  • the tracking ID 23701 field contains the tracking ID 2332 of the detected bubble.
  • Pointer 23702-1 is set with a pointer to movement trajectory information 23706 of the detected bubble.
  • Trajectory information 23706 is a copy of trajectory information 2334 when tracking the detected bubble.
  • a pointer to the observation item list 23707 related to the movement locus information 23706 of the detected bubble is set in the pointer 23702-2 item.
  • the observation item list 23707 is a copy of the observation item list 2335 related to the movement trajectory information 2334 of the detected bubble tracking information.
  • the determination result 23703 entry is set with text indicating that the determination result is "bubble".
  • the entry of the degree of certainty 23704 is set with the degree of certainty, which is an index representing the certainty of the determination result 23703 .
  • At least one image that visualizes the movement trajectory information 23706 of the detected bubbles is set in the entry of the visualized image 23705 .
  • the arithmetic processing unit 240 has a microprocessor such as an MPU and its peripheral circuits, and reads and executes the program 231 from the storage unit 230 to cooperate with the hardware and the program 231. It is configured so as to realize various processing units.
  • Main processing units implemented by the arithmetic processing unit 240 include an acquisition unit 241 , a discrimination model learning unit 242 , a certainty prediction model learning unit 243 , and a determination unit 244 .
  • the acquisition unit 241 is configured to control the gripping device 110 and the camera device 130 to acquire image information 232 representing an image of floating matter present in the liquid enclosed in the container 400 . Further, the acquisition unit 241 is configured to acquire tracking information 233 including time-series data representing the movement trajectory of floating matter and its observation specifications by analyzing the image information 232 . Details of the acquisition unit 241 will be described below.
  • the acquisition unit 241 first activates the gripping device 110 that grips the container 400 to be inspected in an upright posture, thereby tilting, swinging, and rotating the container 400 to be inspected. Next, after a certain period of time has passed since the acquisition unit 241 was started, the acquisition unit 241 stops the gripping device 110, thereby causing the container 400 to stand still in a predetermined posture. By tilting, swinging, and rotating the container 400 for a certain period of time and then standing still, a state in which the liquid flows by inertia within the stationary container 400 is obtained. Next, the acquisition unit 241 starts an operation of continuously photographing the liquid in the container 400 to be inspected at a predetermined frame rate with the camera device 130 under transmitted illumination by the illumination device 120 . That is, if the time Ts is the time when the container 400 stops after being tilted, swung, and rotated, the acquisition unit 241 starts the photographing operation from time Ts.
  • the acquisition unit 241 continuously captures images of the liquid in the container 400 with the camera device 130 from time Ts to time Te when the predetermined time Tw elapses.
  • the predetermined time Tw is set so that, for example, assuming that all floating substances floating in the liquid are bubbles, all the bubbles move upward in the container 400 and are no longer considered to move downward. It may be set longer than the time required to obtain an accurate movement trajectory (hereinafter referred to as the minimum photographing time length).
  • the minimum imaging time length may be determined in advance by experiments or the like and fixedly set in the acquisition unit 241 .
  • the obtaining unit 241 may immediately stop the photographing by the camera device 130 when the time Te is reached, or may continue the photographing by the camera device 130 .
  • the acquisition unit 241 adds the shooting time and the container ID to each of the time-series frame images acquired from the camera device 130 and stores them in the storage unit 230 as image information 232 .
  • the acquiring unit 241 detects shadows of floating matter in the liquid in the container 400 from each of the frame images. For example, the acquisition unit 241 detects the shadow of floating matter in the liquid by the method described below. However, the obtaining unit 241 may detect the shadow of floating matter in the liquid by a method other than the method described below.
  • the acquisition unit 241 performs binarization processing on each frame image to create a binarized frame image.
  • the acquiring unit 241 detects shadows of floating objects from each of the binarized frame images as follows.
  • the acquisition unit 241 first sets the binarized frame image, which is the target for detecting the shadow of floating matter, as the binarized frame image of interest.
  • a differential image is generated between the binarized frame image of interest and the binarized frame image photographed after ⁇ t.
  • ⁇ t is set to such a time that the same floating matter partially overlaps in the two images, or appears at very close positions even if they do not overlap. Therefore, the time difference ⁇ t is determined according to the properties and flow conditions of the liquid and the foreign matter.
  • the matching image portions in the two binarized frame images are erased, leaving only the different image portions.
  • the obtaining unit 241 detects the shadow of the binarized frame image of interest corresponding to the portion where the shadow appears in the difference image as the shadow of the floating matter present in the binarized frame image of interest.
  • the acquisition unit 241 tracks the detected floating matter in time-series images and creates tracking information 233 according to the tracking results.
  • the acquisition unit 241 initializes the tracking information 233 .
  • the container ID of the container 400 to be inspected is set in the entry of container ID 2331 in FIG.
  • the acquisition unit 241 tracks the floating object in the time-series images by the method described below, and according to the tracking result, the tracking ID 2332 and the pointer in FIG. 2333-1 and pointer 233-2 pair entry, movement trajectory information 2334, and observation specification list 2335 are created.
  • the acquisition unit 241 focuses on the binarized frame image with the earliest shooting time in the time series of the binarized frame images created above.
  • the acquisition unit 241 assigns a unique tracking ID to each floating object detected in the binarized frame image of interest.
  • the acquisition unit 241 sets the tracking ID given to the floating matter detected in the binarized frame image of interest to the item of the tracking ID 2332 in FIG.
  • the photographing time of the binarized frame image under consideration is set in the time 23341 item of the first entry of the movement trajectory information 2334 indicated by 2333-1, and the position information 23342, size 23343, color 23344, and shape 23345 items are set. Set the coordinate value, size, color and shape of the floating object in the binarized frame image of interest.
  • the acquisition unit 241 shifts attention to a binarized frame image one frame after the binarized frame image of interest.
  • the acquisition unit 241 focuses on one floating object detected in the binarized frame image of interest.
  • the acquiring unit 241 compares the position of the floating object under consideration with the position of the floating object detected in the binarized frame image one frame earlier (hereinafter referred to as the preceding binarized frame image). If there is a floating matter within a predetermined threshold distance from the floating matter of interest, it is determined that the floating matter of interest and the floating matter present within the threshold distance are the same floating matter. In this case, the acquisition unit 241 assigns, to the floating matter of interest, the tracking ID assigned to the floating matter determined to be the same floating matter.
  • the acquiring unit 241 secures a new entry in the moving track information 2334 pointed to by the pointer 2333-1 of the entry of the tracking information 233 to which the assigned tracking ID 2332 is set, and acquires the time 23341 and position information of the secured entry.
  • the shooting time of the binarized frame image of interest and the coordinate values, size, color, and shape of the floating matter of interest are set.
  • the acquisition unit 241 determines that the interested floating matter is a new floating matter and assigns a new tracking ID. .
  • the acquisition unit 241 sets the tracking ID assigned to the currently focused floating object to the item of the tracking ID 2332 in FIG. , set the shooting time of the binarized frame image under consideration in the item of the time 23341 of the first entry of , and set the coordinate value, size, and color of the floating object under consideration in the items of the position information 23342, the size 23343, the color 23344, and the shape 23345. and shape.
  • the acquisition unit 241 shifts attention to the next floating matter detected in the focused binarized frame image, and repeats the same processing as described above. After paying attention to all floating substances detected in the binarized frame image of interest, the acquiring unit 241 shifts its attention to the next frame image, and repeats the same processing as described above. Then, when the acquisition unit 241 finishes paying attention to the last frame image in the image information 232, it ends the tracking process.
  • the acquisition unit 241 performs tracking based on the distance between floating objects in two adjacent frame images.
  • the acquisition unit 241 may perform tracking based on the distance between floating objects in two frame images adjacent to each other across n frames (n is a positive integer equal to or greater than 1).
  • the acquisition unit 241 obtains the tracking result obtained by tracking based on the distance between floating objects in two frame images adjacent to each other with m frames (m is a positive integer equal to or greater than 0) and the m+j frames (j is a positive integer Tracking may be performed by comprehensively determining the tracking results based on the distance between floating objects in two frame images adjacent to each other with a positive integer of 1 or more interposed therebetween.
  • the acquisition unit 241 creates an observation specification list 2335 for each movement trajectory information 2334 created as described above.
  • the acquisition unit 241 focuses on one piece of the movement track information 2334 .
  • the acquisition unit 241 creates an initial state observation item list 2335 related to the currently focused movement trajectory information 2334 in the area pointed to by the pointer set in the pointer 2333-2.
  • the acquisition unit 241 sets the length of the movement trajectory represented by the movement trajectory information 2334 of interest in the tracking length 23351 item.
  • the acquisition unit 241 sets a value obtained by statistically processing the size 23343 included in the movement trajectory information 2334 of interest in the item of the size 23352 of the floating object.
  • the acquisition unit 241 sets the tracking start time of the movement trajectory information 2334 of interest in the item of the tracking start time 23353 .
  • the acquisition unit 241 sets a value indicating in which region within the container 400 the movement trajectory represented by the movement trajectory information 2334 of interest is in the item of the tracking region 23354 .
  • the acquisition unit 241 sets a numerical value representing the quality of the moving track information of interest 2334 in the item of moving track information quality 23355 .
  • the acquisition unit 241 shifts attention to one of the remaining trajectory information 2334 and repeats the same processing as described above. This process is repeated until attention is paid to all movement trajectory information 2334 .
  • the discriminative model learning unit 242 is configured to generate the discriminative model 234 by machine learning.
  • the discriminative model learning unit 242 uses the time-series data representing the movement trajectory of the floating object and the type of the floating object as teacher data (hereinafter also referred to as first teacher data).
  • teacher data hereinafter also referred to as first teacher data.
  • the time-series data representing the movement trajectory of the floating object for example, the movement trajectory information 2334 shown in FIG. 4 may be used.
  • the time-series data representing the movement trajectory of the floating object is obtained by removing one, two, or all of the size 23343, the color 23344, and the shape 23345 from the movement trajectory information 2334 shown in FIG. information.
  • the type of floating matter may be a label value representing either foreign matter or air bubbles.
  • the first training data includes time-series data representing the movement trajectory of the floating object and labels representing the types of the floating object.
  • Such first teacher data can be created, for example, through interactive processing with the user.
  • the identification model learning unit 242 displays the movement trajectory information 2334 acquired by the acquisition unit 241 on the screen of the display device 300 and receives the label of the movement trajectory information 2334 from the user through the operation input unit 220 . Then, the discriminant model learning unit 242 creates a set of the displayed trajectory information 2334 and the received label as one piece of first teacher data.
  • the method of creating the first training data is not limited to the above.
  • the discriminative model learning unit 242 uses the above-described first teacher data, inputs time-series data representing the movement trajectory of floating matter (foreign matter or air bubbles), and outputs the discriminative model 234 of the type of floating matter. It is configured to be generated by machine learning.
  • the certainty predictive model learning unit 243 is configured to generate the certainty predictive model 235 by machine learning.
  • FIG. 6 is a schematic diagram showing an example of a method for creating teacher data used for machine learning of the certainty prediction model 235.
  • each of the teacher data 250 includes time-series data 2501 representing the movement trajectory of floating matter, the type 2502 of the floating matter, and its observation data 2503 .
  • the time-series data 2501 for example, the movement track information 2334 shown in FIG. 4 may be used.
  • the time-series data 2501 may be, for example, remaining information obtained by removing one, two, or all of the size 23343, color 23344, and shape 23345 from the movement trajectory information 2334 shown in FIG. .
  • the observation item list 2335 of the trajectory information 2334 shown in FIG. 4 may be used.
  • the floating matter type 2502 may be a label value representing either foreign matter or air bubbles.
  • label values can be created, for example, through interactive processing with the user.
  • the certainty prediction model learning unit 243 displays the movement trajectory information 2334 acquired by the acquisition unit 241 on the screen of the display device 300 and receives the label of the movement trajectory information 2334 from the user through the operation input unit 220 . Then, the certainty prediction model learning unit 243 creates a set of the displayed movement trajectory information 2334 and the received label and observation specification list 2335 of the movement trajectory information 2334 as one teacher data.
  • the method of creating teacher data is not limited to the above.
  • the certainty prediction model learning unit 243 creates one new teacher data 252 from one teacher data 250 as follows. First, the certainty prediction model learning unit 243 inputs the time-series data 2501 in the teacher data 250 to the learned discrimination model 234, and estimates the type of floating objects finally output from the discrimination model 234. get. Next, the certainty prediction model learning unit 243 compares the type of floating matter represented by the estimation result of the discrimination model 234 with the type of floating matter in the teacher data 250 (block 251). Next, the certainty predictive model learning unit 243 creates a pair of the certainty 2521 set to the value corresponding to the comparison result and the observation specification 2503 in the teacher data 250 as the teacher data 252 .
  • a large value (for example, 1 or a value closer to 1) may be set when both match (that is, when the estimation result of the identification model 234 is correct).
  • This value may be a predetermined fixed value (eg, 1), or the softmax value (TCP) of the correct class of the discriminative model 234 .
  • a small value (for example, 0 or a value close to 0) may be used.
  • This value may be a predetermined fixed value (eg, 0), or the softmax value (TCP) of the correct class of the discriminative model 234 .
  • the certainty prediction model learning unit 243 uses the teacher data 252 created as described above, the input is the observation specification of the time series data representing the movement trajectory of the floating object obtained by observation, and the output is the observation specification It is configured to generate a certainty prediction model 235, which is the certainty of the estimation result of the discriminative model 234 estimated from the original time-series data, by machine learning.
  • the determination unit 244 uses the learned identification model 234 to estimate the type of floating matter from the time-series data representing the movement trajectory of the suspended matter in the liquid enclosed in the container 400 acquired by the acquiring unit 241. is configured to The determining unit 244 is configured to predict the certainty of the estimation result of the discriminant model 234 from the observation specifications acquired by the acquiring unit 241 using the learned certainty prediction model 235 . In addition, the determination unit 244 creates inspection result information 236 including the type of floating matter estimated using the discrimination model 234 and the certainty of the estimation result of the discrimination model 234 registered using the certainty prediction model 235. is configured as
  • the determination unit 244 reads out the tracking information 233 from the storage unit 230, and for each tracking ID included in the tracking information 233, the movement trajectory information 2334 representing the movement trajectory of the floating object is used as time-series data to identify the learned identification model 234. , it is determined whether the floating substance with the tracking ID is a foreign substance or an air bubble.
  • the determination unit 244 uses the identification model 234 by inputting the observation specification list 2335 of the movement trajectory of the floating object to the learned confidence prediction model 235 for each tracking ID included in the tracking information 233. Predict the degree of certainty of the determination result of the type of suspended matter that has been determined. Then, the determination unit 244 creates inspection result information 236 according to the determination result and stores it in the storage unit 230 . Further, the determination unit 244 displays the inspection result information 236 on the display device 300 and/or transmits it to an external device through the communication I/F unit 210 .
  • phases of the inspection system 100 are roughly divided into a learning phase and an inspection phase.
  • the learning phase is a phase in which the identification model 234 and the confidence prediction model 235 are created by machine learning.
  • the inspection phase is a phase in which the presence or absence of foreign matter in the liquid enclosed in the container 400 is inspected using the learned discrimination model 234 and confidence prediction model 235 .
  • FIG. 7 is a flow chart showing an example of the operation of the learning phase.
  • the acquiring unit 241 first acquires image information 232 representing an image of floating matter present in the liquid enclosed in the container 400 by controlling the gripping device 110 and the camera device 130 (step S1).
  • the acquisition unit 241 acquires the tracking information 233 including the time-series data representing the moving trajectory of the floating matter and its observation specifications (step S2).
  • the discriminative model learning unit 242 creates first teacher data used for machine learning of the discriminative model 234 (step S3).
  • the discriminative model learning unit 242 uses the created first teacher data to generate the discriminative model 234 by machine learning, with the input as time-series data representing the movement trajectory of the floating object and the output as the type of the floating object. (step S4).
  • the certainty predictive model learning unit 243 creates second teacher data used for machine learning of the certainty predictive model 235 (step S5).
  • the certainty prediction model learning unit 243 uses the created second teacher data, the input is the observation specification of the time series data representing the movement trajectory of the floating object obtained by observation, and the output is the observation specification
  • a certainty factor prediction model 235 is generated by machine learning as the certainty factor of the estimation result of the discrimination model 234 estimated from the original time-series data (step S6).
  • FIG. 8 is a flow chart showing an example of the operation of the inspection phase.
  • the acquisition unit 241 acquires image information 232 representing an image of floating matter present in the liquid enclosed in the container 400 by controlling the gripping device 110 and the camera device 130 (step S11).
  • the acquisition unit 241 acquires the tracking information 233 including the time-series data representing the movement trajectory of the floating matter and its observation specifications (step S12).
  • the determination unit 244 uses the learned identification model 234 to estimate the type of floating matter from the time-series data representing the movement trajectory of the floating matter included in the tracking information 233 (step S13).
  • the determination unit 244 uses the learned confidence prediction model 235 to extract the result of the estimation by the identification model 234 from the observation specification list of the time-series data representing the movement trajectory of the floating object included in the tracking information 233. is predicted (step S14).
  • the determination unit 244 creates inspection result information 236 based on the estimated type of floating matter and the predicted certainty of the estimation result (step S15).
  • the certainty prediction model learning unit 243 uses source data composed of a set of time-series data representing the movement trajectory of the floating object obtained by the acquiring unit 241, its observation specifications, and the type of floating object.
  • the determination unit 244 acquires observation specifications related to the time-series data representing the movement trajectory of the object obtained by the acquisition unit 241, and uses the learned confidence prediction model 235 to use the acquired observation specifications. This is for outputting the confidence of the estimation result of the discriminant model 234 estimated from the original.
  • the determination unit 244 may modify or correct the estimation result by the discrimination model 234 based on the confidence predicted by the confidence prediction model 235 .
  • the determination unit 244 predicts from the observation specifications of the time-series data using the certainty prediction model 235.
  • the type of floating matter may be corrected to air bubbles instead of foreign matter.
  • the determination unit 244 predicts from the observation specifications of the time-series data using the certainty prediction model 235
  • the degree of certainty of the estimation result may be calculated as a foreign matter likelihood score.
  • the determination unit 244 determines the foreign matter likelihood score by the identification model 234 (probability of foreign matter output by the identification model 234). , may be corrected using the certainty factor of the estimation result predicted from the observation specifications of the time-series data using the certainty factor prediction model 235 .
  • the certainty predictive model learning unit 243 may use a predetermined output of the discrimination model 234 for learning the certainty predictive model 235 .
  • the predetermined output of the discriminative model 234 may be, for example, a feature quantity output from the intermediate layer of the discriminative model 234 .
  • FIG. 9 is a schematic diagram showing another example of a method for creating teacher data used for machine learning of the certainty prediction model 235.
  • 252A is teacher data
  • 2522 is a predetermined output of the discrimination model 234.
  • the certainty prediction model learning unit 243 creates one new teacher data 252A from one teacher data 250 as follows.
  • the certainty prediction model learning unit 243 inputs the time series data 2501 in the teacher data 250 to the learned discrimination model 234, and the classification result of the floating object type finally output from the discrimination model 234. A predetermined output 2522 is obtained.
  • the confidence prediction model learning unit 243 compares the type of floating matter represented by the estimation result of the discrimination model 234 with the type of floating matter in the teacher data 250. 2521 (block 251). Then, the certainty prediction model learning unit 243 creates a set of the certainty 2521, the observation specification 2503 in the teacher data 250, and the predetermined output 2522 as the teacher data 252A.
  • the certainty prediction model learning unit 243 uses the teacher data 252A created as described above to identify the observation specifications of the time-series data representing the movement trajectory of the floating matter obtained by observing the input and the time-series data. Confidence as a set with a predetermined output 2522 output from the discriminative model 234 when input to the model 234, and the output as the certainty of the estimation result of the discriminative model 234 estimated from the time series data related to the above observation specifications It is configured to generate the degree prediction model 235 by machine learning.
  • the determination unit 244 may use the predetermined output of the discrimination model 234 for confidence prediction. For example, the determination unit 244 assigns the observation specification list of the time-series data representing the movement trajectory of the floating object included in the tracking information 233 and the time-series data to the learned confidence prediction model 235 as the identification model 234. A combination with a predetermined output 2522 output from the discriminative model 234 at the time of input is input, and the certainty factor of the estimation result of the discriminative model 234 is obtained.
  • the predetermined output of the discriminative model 234 is the feature quantity output from the intermediate layer of the discriminative model 234.
  • the predetermined output of discriminative model 234 is not limited to the above.
  • a given output of discriminative model 234 may be the final output of discriminative model 234 .
  • the discriminative model learning unit 242 may further learn the discriminative model 234 generated in step S4 at any time after the certainty prediction model 235 is generated in step S6 of FIG. In that case, the discriminative model learning unit 242 may control the learning of the discriminative model 243 based on the certainty predicted by the learned certainty prediction model 235 .
  • FIG. 10 is a schematic diagram showing an example of a learning method for the discriminative model 234 according to Modification 3.
  • teacher data 260 includes time-series data 2601 representing the movement trajectory of a floating object and the type 2602 of the floating object.
  • Observation specifications 2603 of time-series data 2601 are prepared for each teacher data 260 .
  • the discriminative model learning unit 242 learns the discriminative model 234 using the teacher data 260
  • the discriminative model learning unit 242 inputs the observation specifications 2603 paired with the teacher data 260 to the learned confidence prediction model 235, and the confidence prediction model 235
  • the learning of the discriminative model 234 is controlled by the confidence output from .
  • the discriminant model learning unit 242 reduces the learning weight as the certainty is lower. As a result, the identification accuracy of the identification model 234 can be improved.
  • the certainty prediction model learning unit 243 divides the time-series data representing the movement trajectory of floating matter obtained by observation into several partial time-series data, and observes the individual partial time-series data. It is configured to perform machine learning of the confidence predictive model 235 using the originals.
  • FIG. 11 is a schematic diagram showing an example of a method for creating teacher data used for machine learning of the certainty prediction model 235 in modification 4.
  • each of the teacher data 250 includes time-series data 2501, types of floating matter 2502, and observation specifications 2503 as already described with reference to FIG.
  • the time-series data 2501 may be, for example, the trajectory information 2334 in FIG.
  • the observation specification 2503 may be, for example, the observation specification list 2335 of FIG.
  • the certainty prediction model learning unit 243 has a data conversion unit 2431 that converts each of the teacher data 250 into two new teacher data 250-1 and 250-2.
  • the teacher data 250-1 consists of time-series data 2501-1, types of floating matter 2502-1, and observation specifications 2503-1.
  • the teacher data 250-2 consists of time-series data 2501-2, types of floating matter 2502-2, and observation specifications 2503-2. Although one teacher data 250 is converted into two teacher data in the example of FIG. 11, it may be converted into three or more teacher data.
  • the data conversion unit 2431 converts the teacher data 250 into teacher data 250-1 and 250-2 by, for example, the following method. First, the data conversion unit 2431 calculates an intermediate time between the tracking start time and the tracking end time of the time-series data 2501 in the teacher data 250 . Next, the data conversion unit 2431 converts the time-series data 2501 into time-series data 2501-1 from the tracking start time to the intermediate time and time-series data 2501-2 from the intermediate time to the tracking end time. . Next, the data conversion unit 2431 creates floating matter types 2502 - 1 and 2502 - 2 having the same contents as the floating matter type 2502 of the teacher data 250 . Next, data conversion section 2431 creates observation specifications 2503-1 and 2503-2 from time-series data 2501-1 and 2501-2.
  • the data conversion unit 2431 creates observation specifications 2503-1 from the time-series data 2501-1 by the following method. First, the data conversion unit 2431 determines the number of frame images constituting the time-series data 2501-1, or the length of time from the shooting time of the first frame image in the time-series data 2501-1 to the shooting time of the last frame image. and set it as the tracking length of the time-series data 2501-1. Next, the data conversion unit 2431 calculates values (for example, average value, maximum value, minimum value, median value) obtained by statistically processing the sizes 23343 included in the time-series data 2501-1, and converts them to the sizes of floating objects. Satoru.
  • values for example, average value, maximum value, minimum value, median value
  • the data conversion unit 2431 acquires the photographing time of the first frame image of the time-series data 2501-1, and uses it as the tracking start time.
  • the data conversion unit 2431 calculates values (for example, coordinate values of apexes of the circumscribing rectangle) specifying the circumscribing rectangle of the movement trajectory represented by the time-series data 2501-1, and defines them as the tracking area.
  • the data conversion unit 2431 calculates the quality of the movement trajectory information based on the discontinuity of the position information 23342 included in the time-series data 2501-1 and the amount of variation in the size 23343, color 23344, and shape 23345.
  • the data conversion unit 2431 converts the tracking length calculated as described above, the size of the floating object, the tracking start time, the tracking area, and the observation specification 2503-1 composed of the collection of quality of the moving trajectory information. to create Using a similar method, the data conversion unit 2431 creates observation specifications 2503-2 from the time-series data 2501-2.
  • the certainty prediction model learning unit 243 creates one new teacher data 252-1 from one teacher data 250-1 as follows. First, the certainty prediction model learning unit 243 inputs the time-series data 2501-1 in the teacher data 250-1 to the learned discrimination model 234, and the type of floating matter finally output from the discrimination model 234. Get the estimation result of . Next, confidence prediction model learning unit 243 compares the type of floating matter represented by the estimation result of discrimination model 234 with the type of floating matter 2502-1 in teacher data 250-1 (block 251). Next, the certainty predictive model learning unit 243 sets the certainty 2521-1 set to the value according to the comparison result and the observation specification 2503-1 in the teacher data 250-1 as teacher data 252-1. create.
  • Confidence prediction model learning unit 243 creates one new teacher data from teacher data 250-2 by a similar method. As a result, 2 ⁇ n pieces of teacher data 252 - 1 and the like are finally generated from n pieces of teacher data 250 .
  • the certainty prediction model learning unit 243 uses the teacher data 252-1 etc. created as described above, the input is the observation specification of the time series data representing the movement trajectory of the floating object obtained by observation, and the output is A certainty prediction model 235 is generated by machine learning as the certainty of the estimation result of the discriminative model 234 estimated from the time-series data related to the observation specifications.
  • the number of teacher data used for learning the confidence prediction model 235 can be increased.
  • the number of time-series data representing movement trajectories of foreign matter is small.
  • the number of incorrect time-series data time-series data in which a bubble is identified as a foreign matter, and time-series data in which a foreign matter is identified as a bubble
  • a large amount of teacher data can be created from such a small number of time-series data.
  • FIG. 12 is a schematic diagram showing an example of a method of creating teacher data used for machine learning of the certainty prediction model 235 in modification 5. As shown in FIG. 12, the same reference numerals as in FIG. 11 denote the same parts, 252-1A is teacher data, and 2522-1 is the discrimination result of the discrimination model 234. In FIG. Referring to FIG. 12, certainty prediction model learning unit 243 creates one new teacher data 252-1A from one teacher data 250-1 as follows.
  • the certainty prediction model learning unit 243 inputs the time-series data 2501-1 in the teacher data 250-1 to the learned discrimination model 234, and acquires the estimation result 2522-1 output from the discrimination model 234. do.
  • the confidence prediction model learning unit 243 creates a confidence 2521-1 according to the result of comparing the type of floating matter represented by the estimation result 2522-1 and the type of floating matter in the teacher data 250-1. (block 251). Confidence predictive model learning unit 243 creates a set of confidence 2521-1, observation specification 2503-1 in teacher data 250-1, and estimation result 2522-1 as teacher data 252-1A.
  • the certainty prediction model learning unit 243 uses the teacher data 252-1A and the like created as described above, and inputs the observation specifications of the time series data representing the movement trajectory of the floating object obtained by observation and the time series The data is paired with the estimation result 2522-1 output from the discrimination model 234 when the data is input to the discrimination model 234, and the output is the confidence of the estimation result of the discrimination model 234 estimated from the time series data related to the above observation specifications. It is configured to generate a certainty prediction model 235 by machine learning.
  • the determination unit 244 may use the estimation result 2522-1 of the discriminative model 234 for confidence prediction. For example, the determination unit 244 assigns the observation specification list of the time-series data representing the movement trajectory of the floating object included in the tracking information 233 and the time-series data to the learned confidence prediction model 235 as the identification model 234. A set with the estimation result 2522-1 output from the discriminative model 234 when input is input, and the certainty factor of the estimation result of the discriminative model 234 outputted from the certainty factor prediction model 235 is obtained.
  • the confidence prediction model learning unit 243 obtains the estimation result 2522-1 by inputting the time series data 2501-1 to the learned discrimination model 234.
  • the method of obtaining estimation result 2522-1 estimated from partial time-series data 2501-1 is not limited to the above.
  • the certainty prediction model 235 by configuring the certainty prediction model 235 so as to output the identification result based on the feature amount up to the time series data in the middle, the entire time series data 2501 including the time series data 2501-1 can be generated.
  • An estimation result 2522-1 estimated from the partial time-series data corresponding to the time-series data 2501-1 may be obtained from the discrimination model 234 by inputting it to the trained discrimination model 234.
  • the identification model 234 is composed of, for example, an LSTM, and can output the identification result from the final stage as indicated by the solid line arrow, and can output the intermediate frame as indicated by the broken line arrow from the middle stage. It is configured to be able to output identification results with features up to.
  • FIG. 14 is a block diagram of an inspection system 500 according to a second embodiment of the invention.
  • the inspection system 500 comprises discriminant model learning means 501 , certainty prediction model learning means 502 and determination means 503 .
  • the discriminant model learning means 501 uses time-series data representing the movement trajectory of the object obtained by observation and the type of the object as first teacher data, and uses time series data representing the movement trajectory of the object obtained by observation. It is configured to learn a discriminative model for estimating object types from series data.
  • the discriminant model learning means 501 can be configured, for example, in the same manner as the discriminative model learning unit 242 in FIG. 2, but is not limited thereto.
  • Confidence prediction model learning means 502 uses time-series data representing the movement trajectory of the object obtained by observation, its observation specifications, and the type of object as second teacher data, and the object obtained by observation It is configured to learn a certainty prediction model that predicts the certainty of the estimation result of the discriminative model from the observed specifications of the time-series data representing the movement trajectory of the object.
  • the certainty predictive model learning means 502 can be configured, for example, in the same manner as the certainty predictive model learning unit 243 in FIG. 2, but is not limited thereto.
  • the determination means 503 is configured to estimate the type of object from the time-series data representing the movement trajectory of the object obtained by observation using the learned discrimination model. Further, the determination means 503 is configured to predict the confidence of the estimation result of the discriminant model from the observed data of the time-series data using the learned confidence prediction model.
  • the determination means 503 can be configured, for example, in the same manner as the determination section 244 in FIG. 2, but is not limited thereto.
  • the inspection system 500 configured as above operates as follows. That is, first, the discriminant model learning means 501 uses the time-series data representing the movement trajectory of the object obtained by observation and the type of the object as first teacher data, and uses the movement of the object obtained by observation. A discriminant model is learned to estimate the type of object from the time-series data representing the trajectory. Next, the certainty prediction model learning means 502 uses the time-series data representing the movement trajectory of the object obtained by observation, its observation specifications, and the type of object as second teacher data, and obtains by observation. It learns a certainty prediction model that predicts the certainty of the estimation result of the discriminative model from the observation data of the time-series data representing the movement trajectory of the object.
  • the determination means 503 uses the learned discrimination model to estimate the type of the object from the time-series data representing the movement trajectory of the object obtained by observation, and the learned confidence prediction model is used to predict the confidence of the estimation result of the discriminative model from the observed parameters of the time-series data.
  • the inspection system 500 configured and operated as described above, even if the time-series data representing a plurality of mutually similar movement trajectories obtained by observation from a plurality of different types of objects, the observation specifications are different. If so, we can differentiate between the confidences of the results estimated from the time-series data.
  • the certainty prediction model learning means 502 uses time-series data representing the movement trajectory of the object obtained by observation, its observation specifications, and the type of object as the second teacher data, This is for learning a certainty prediction model for predicting the certainty of the estimation result of the discriminative model from the observation specifications of the obtained time-series data representing the moving trajectory of the object.
  • the determining means 503 is for predicting the confidence of the estimation result of the discriminative model from the observed data of the time-series data using the learned confidence prediction model.
  • the present invention has been described above with several embodiments and modifications, the present invention is not limited to the above embodiments and modifications, and various additions and modifications are possible.
  • the present invention can also combine the embodiments and modifications described above.
  • the operation of performing identification and confidence prediction using the learned discrimination model and confidence model described in the first embodiment, and the learned discrimination model and confidence prediction model described in any of the modifications is an inspection system that concurrently or alternately performs identification and confidence prediction using .
  • the present invention can be used for inspection systems in general that estimate the type of an object from time-series data representing the movement trajectory of the object obtained by observation.
  • the present invention can be applied to an inspection system that inspects the presence or absence of foreign matter in a liquid enclosed in a container.
  • the present invention can be applied to a preclinical test system for investigating the safety of pharmaceuticals by determining the presence or absence of abnormalities in mice or the like from time-series data representing movement trajectories of mice or the like.
  • Time-series data representing the movement trajectory of an object obtained by observation and the type of the object are used as first teacher data, and the time-series data representing the movement trajectory of the object obtained by observation are used to determine the object.
  • a certainty prediction model learning means for learning a certainty prediction model for predicting the certainty of an estimation result of the discriminative model from data observation specifications; Using the learned discrimination model, estimating the type of the object from time series data representing the movement trajectory of the object obtained by observation, and using the learned confidence prediction model, the time series determination means for predicting the confidence level of the estimation result of the discriminative model from observation data data; inspection system.
  • the certainty prediction model learning means is configured such that the type of the object estimated from the time-series data in the second teacher data using the learned discrimination model is the object in the second teacher data. If it does not match the type, acquire a certainty that is lower than when it matches, and use the acquired certainty and the observation specifications in the second teacher data as third teacher data.
  • the inspection system learns the confidence prediction model by The inspection system according to Appendix 1.
  • the observation specifications include at least one of the length of the movement trajectory, the size of the target object, the start time of the movement trajectory, the observation location of the movement trajectory, and the quality of the time-series data. , 3.
  • the determination means corrects the determination result of the type of the object based on the determination result of the certainty factor. 4.
  • the inspection system according to any one of Appendices 1 to 3.
  • the confidence prediction model learning means learns the confidence prediction model using a predetermined output obtained by inputting the time-series data in the second teacher data to the learned discrimination model, 5.
  • the inspection system according to any one of Appendices 1 to 4.
  • the discriminant model learning means further learns the learned discriminant model using the confidence predicted by the learned confidence prediction model for learning control. 6.
  • the certainty prediction model learning means converts the second teacher data into a plurality of new teacher data, and each new teacher data is a plurality of new teacher data obtained by replacing the time-series data in the second teacher data. One time-series data after conversion to time-series data, the type of object in the second teacher data, and the observation specifications of the one partial time-series data,
  • the confidence prediction model learning means uses the new teacher data to learn the confidence prediction model. 7.
  • the inspection system according to any one of Appendices 1 to 6.
  • the confidence prediction model learning means machine-learns the confidence prediction model using a discrimination result obtained by inputting time-series data in the new teacher data to the learned discrimination model.
  • the inspection system according to Appendix 7.
  • Time-series data representing the movement trajectory of an object obtained by observation and the type of the object are used as first teacher data, and the time-series data representing the movement trajectory of the object obtained by observation are used to determine the object. learn a discriminant model that estimates the type of A time series representing the movement trajectory of an object obtained by observation using time-series data representing the movement trajectory of an object obtained by observation, its observation specifications, and the type of the object as second teacher data.
  • Time-series data representing the movement trajectory of an object obtained by observation and the type of the object are used as first teacher data, and the time-series data representing the movement trajectory of the object obtained by observation are used to determine the object.
  • a process of learning a discriminative model that estimates the type of A time series representing the movement trajectory of an object obtained by observation using time series data representing the movement trajectory of an object obtained by observation, its observation specifications, and the type of the object as second teacher data.
  • a process of learning a confidence prediction model that predicts the confidence of the estimation result of the discriminative model from the observation specifications of the data;
  • the type of the object is estimated from time series data representing the movement trajectory of the object obtained by observation, and using the learned confidence prediction model, the time series a process of predicting the degree of certainty of the estimation result of the discriminative model from the observed data data;
  • a computer-readable recording medium that records a program for performing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

観測により得られた対象物の移動軌跡を表す時系列データと対象物の種類とを教師データとして用い、対象物の移動軌跡を表す時系列データから対象物の種類を識別するモデルを機械学習する識別モデル学習手段と、観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と対象物の種類とを第2の教師データとして用い、対象物の移動軌跡を表す時系列データの観測諸元から識別モデルの推定結果の確信度を推定する確信度予測モデルを機械学習する確信度予測モデル学習手段と、学習済みの識別モデルを用いて、観測により得られた対象物の移動軌跡から対象物の種類を推定し、学習済みの確信度予測モデルを用いて、時系列データの観測諸元から識別モデルの推定結果の確信度を予測する判定手段と、を備える。

Description

検査システム
 本発明は、検査システム、検査方法、および、記録媒体に関する。
 透明または半透明な容器に封入された液体中の異物の有無を検査する検査システムが提案されている。
 例えば、観測により得られる液体中の粒子の軌道を表す時系列データを取得し、上記粒子の軌道に基づいて粒子の種類(ガラス薄片など)を判定する方法および装置が提案されている(例えば、特許文献1参照)。
 また、液体中の物体の動き方(移動軌跡など)を観測により取得し、この取得した物体の動き方と、事前に学習しておいた液体中の異物の動き方とを比較することにより、液体中に異物が存在するか否かを検査する方法および装置が提案されている(例えば、特許文献2参照)。
 一方、深層ニューラルネットワークにより構成された画像識別を行う識別モデルが出力する識別結果の確信度を予測する方法および装置が提案されている(例えば、非特許文献1参照)。具体的には、学習済みの識別モデルに画像を入力した際に識別モデルから取り出される中間特徴量と真のクラス確率(TCP:True Class Probability)とを教師データとして用い、入力を識別モデルから得られる画像の中間特徴量とし、出力を識別モデルの識別結果の確信度とするように機械学習された確信度予測モデルを使用する。
特開2019-215376号公報 特開2019-174346号公報
Charles Corbiere et al., "Addressing Failure Prediction by Learning Model Confidence" (NeurIPS2019)
 観測して得られた液体中の物体の移動軌跡を表す時系列データに基づいて物体の種類(例えば、異物または気泡)を識別するモデルの識別結果は、100%信頼できるとは限らず、間違っている可能性がある。注射製剤など液体医薬品の液中異物検査を目的とするような失敗が深刻な影響をもたらすアプリケーションでは特に、識別モデルの識別結果の確からしさを予測し得ることが重要である。
 非特許文献1に記載の方法では、学習済みの識別モデルに識別対象の画像を入力した際に識別モデルから取り出される中間特徴量と真のクラス確率とを教師データとして用いて、確信度予測モデルを学習する。しかし、入力画像(の中間特徴量)を教師データとして確信度予測モデルを学習する構成では、類似する複数の入力画像から推定される複数の結果の確信度間に差を持たせることは困難である。そのため、非特許文献1に記載の方法では、種類の異なる複数の物体から不充分な観測により得られた互いに類似する移動軌跡を表す時系列データから推定される結果の確信度に差を付けることは困難である。
 本発明は、上述した課題を解決する検査システムを提供することにある。
 本発明の一形態に係る検査システムは、
 観測により得られた対象物の移動軌跡を表す時系列データと前記対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定する識別モデルを学習する識別モデル学習手段と、
 観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と前記対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する確信度予測モデルを学習する確信度予測モデル学習手段と、
 学習済みの前記識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定し、学習済みの前記確信度予測モデルを用いて、前記時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する判定手段と、
を備えるように構成されている。
 また、本発明の一形態に係る検査方法は、
 観測により得られた対象物の移動軌跡を表す時系列データと前記対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定する識別モデルを学習し、
 観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と前記対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する確信度予測モデルを学習し、
 学習済みの前記識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定し、学習済みの前記確信度予測モデルを用いて、前記時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する、
ように構成されている。
 また、本発明の一形態に係るコンピュータ読み取り可能な記録媒体は、
 コンピュータに、
 観測により得られた対象物の移動軌跡を表す時系列データと前記対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定する識別モデルを学習する処理と、
 観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と前記対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する確信度予測モデルを学習する処理と、
 学習済みの前記識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定し、学習済みの前記確信度予測モデルを用いて、前記時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する処理と、
を行わせるためのプログラムを記録するように構成されている。
 本発明は、上述したような構成を有することにより、種類の異なる複数の対象物から観測により得られた互いに類似する複数の移動軌跡を表す時系列データであってもその観測諸元が相違する場合、それら時系列データから推定される結果の確信度間に差を付けることができる。
本発明の第1の実施形態に係る検査システムのブロック図である。 本発明の第1の実施形態における検査装置の一例を示すブロック図である。 本発明の第1の実施形態における画像情報の構成例を示す図である。 本発明の第1の実施形態における追跡情報の構成例を示す図である。 本発明の第1の実施形態における検査結果情報の構成例を示す図である。 本発明の第1の実施形態における確信度予測モデルの機械学習に用いる教師データを作成する方法の一例を示す模式図である。 本発明の第1の実施形態における学習フェーズの動作の一例を示すフローチャートである。 本発明の第1の実施形態における検査フェーズの動作の一例を示すフローチャートである。 本発明の第1の実施形態における確信度予測モデルの機械学習に用いる教師データを作成する方法の他の例を示す模式図である。 本発明の第1の実施形態における変形例3による識別モデルの学習方法の例を示す模式図である。 本発明の第1の実施形態における変形例4において確信度予測モデルの機械学習に用いる教師データを作成する方法の一例を示す模式図である。 本発明の第1の実施形態における変形例5における確信度予測モデルの機械学習に用いる教師データを作成する方法の例を示す模式図である。 本発明の第1の実施形態における変形例6で用いる識別モデルの例を示す模式図である。 本発明の第2の実施形態に係る検査システムのブロック図である。
 次に、本発明の第1の実施形態について、図面を参照して詳細に説明する。
 図1は、本発明の第1の実施形態に係る検査システム100のブロック図である。図1を参照すると、検査システム100は、容器400に封入された液体中の異物の有無を検査するシステムである。検査システム100は、主な構成要素として、把持装置110と、照明装置120と、カメラ装置130と、検査装置200と、表示装置300と、を備えている。
 容器400は、ガラス瓶やペットボトルなどの透明または半透明な容器である。容器400の内部には、薬剤や水などの液体が封入・充填されている。また、容器400に封入された液体中には、異物が混入している可能性がある。異物としては、例えば、ガラス片、プラスチック片、ゴム片、髪の毛、繊維片、煤、などが想定される。
 把持装置110は、容器400を所定の姿勢で把持するように構成されている。所定の姿勢は任意である。例えば、容器400が正立しているときの姿勢を所定の姿勢としてよい。あるいは、容器400が正立した姿勢から所定の角度で傾いた姿勢を所定の姿勢としてよい。以下では、容器400が正立した姿勢を所定の姿勢として説明する。容器400を正立した姿勢で把持する機構は、任意である。例えば、把持する機構は、容器400を正立した姿勢で載置する台座と、台座上に載置された容器400の頭頂部であるキャップ401の上面部を押圧する部材などを含んで構成されていてよい。
 また、把持装置110は、容器400を把持した状態で、容器400を正立した姿勢から所定方向に傾斜させ、または揺動させ、または回転させるように構成されている。容器400を傾斜・揺動・回転させる機構は、任意である。例えば、傾斜・揺動・回転させる機構は、把持機構全体を、容器400を把持した状態で傾斜・揺動・回転させるモータを含んで構成されていてよい。
 また、把持装置110は、有線または無線により検査装置200と接続されている。把持装置110は、検査装置200からの指示により起動されると、容器400を把持した状態で、容器400を正立した姿勢から所定方向に傾斜・揺動・回転させる。また、把持装置110は、検査装置200からの指示により停止されると、容器400を傾斜・揺動・回転させる動作を停止し、容器400を正立した姿勢で把持する状態に復帰する。
 上記のように容器400を傾斜・揺動・回転させ、その後に静止させると、静止した容器400内で液体が慣性により流動する状態が得られる。液体が流動すると、液体に混入された異物が浮遊する状態が得られる。また、液体が流動すると、容器400の内側壁面などに付着していた気泡や液体の流動の過程で混ざり込んだ気泡が液体中を浮遊する可能性がある。従って、検査装置200は、浮遊物が異物であるか、気泡であるかを識別する必要がある。
 照明装置120は、容器400に封入された液体に対して照明光を照射するように構成されている。照明装置120は、例えば、容器400の大きさに応じたサイズの面光源である。照明装置120は、容器400からみてカメラ装置130が設置される側とは反対側に設置されている。すなわち、照明装置120による照明は、透過照明である。ただし、照明装置120の位置はこれに限定せず、例えば容器400の底面側やカメラ装置130に隣接する位置に設置して、反射光照明として撮影する形態をとってもよい。
 カメラ装置130は、容器400からみて照明装置120が設置される側とは反対側の所定位置から、容器400内の液体を、所定のフレームレートで連続して撮影する撮影装置である。カメラ装置130は、例えば、数百万画素程度の画素容量を有するCCD(Charge-Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサを備えたカラーカメラを含んで構成されていてよい。カメラ装置130は、有線または無線により、検査装置200と接続されている。カメラ装置130は、撮影して得られた時系列の画像を、撮影時刻を示す情報などと共に、検査装置200に対して送信するように構成されている。
 表示装置300は、LCD(Liquid Crystal Display:液晶ディスプレイ)などの表示装置である。表示装置300は、検査装置200と有線または無線により接続されている。表示装置300は、検査装置200で行われた容器400の検査結果などを表示するように構成されている。
 検査装置200は、カメラ装置130によって撮影して得られた時系列の画像に対して画像処理を行って、容器400に封入された液体中の異物の有無を検査する情報処理装置である。検査装置200は、把持装置110、カメラ装置130、および表示装置300と有線または無線により接続されている。
 図2は、検査装置200の一例を示すブロック図である。図2を参照すると、検査装置200は、通信I/F部210と操作入力部220と記憶部230と演算処理部240とを備えている。
 通信I/F部210は、データ通信回路から構成され、有線または無線により把持装置110、カメラ装置130、表示装置300、および図示しない他の外部装置との間でデータ通信を行うように構成されている。操作入力部220は、キーボードやマウスなどの操作入力装置から構成され、オペレータの操作を検出して演算処理部240に出力するように構成されている。
 記憶部230は、ハードディスクやメモリなどの1種類あるいは多種類の1以上の記憶装置から構成され、演算処理部240における各種処理に必要な処理情報およびプログラム231を記憶するように構成されている。プログラム231は、演算処理部240に読み込まれて実行されることにより各種処理部を実現するプログラムであり、通信I/F部210などのデータ入出力機能を介して図示しない外部装置や記録媒体から予め読み込まれて記憶部230に保存される。記憶部230に記憶される主な処理情報には、画像情報232、追跡情報233、識別モデル234、確信度予測モデル235、および、検査結果情報236がある。
 画像情報232は、容器400内の液体をカメラ装置130によって連続して撮影して得られた時系列の画像を含んでいる。容器400内の液体中に浮遊物が存在する場合、画像情報232には、浮遊物の像が写っている。
 図3は、画像情報232の構成例を示す。この例の画像情報232は、容器ID2321と撮影時刻2322とフレーム画像2323との組からなるエントリから構成されている。容器ID2321の項目には、検査対象とした容器400を一意に識別するIDが設定される。容器ID2321としては、容器400に振られた通し番号、容器400に貼付されたバーコード、容器400のキャップ401などから採取された物体指紋情報などが考えられる。撮影時刻2322およびフレーム画像2323の各項目には、撮影時刻およびフレーム画像が設定される。撮影時刻2322は、同じ容器IDの他のフレーム画像と区別して識別できるような精度(例えばミリ秒単位)に設定されている。撮影時刻2322は、例えば、容器400の傾斜・揺動・回転を停止した時点からの経過時間を用いてよい。図3の例では、フレーム画像2323毎に容器ID2321を関連付けているが、複数のフレーム画像2323のグループ毎に容器ID2321を関連付けるようにしてもよい。
 追跡情報233は、画像情報232に写っている容器400内の液体中に存在する浮遊物の像を検出して追跡した浮遊物の移動軌跡を表す時系列データとその観測諸元とを含んでいる。観測諸元は、例えば、観測された移動軌跡の長さ、観測された浮遊物の大きさ、観測された移動軌跡の開始時刻、観測された移動軌跡が存在した容器400内の場所、移動軌跡の品質など、事前に定められた1または2以上の情報を意味する。図4は、追跡情報233の構成例を示す。この例の追跡情報233は、容器ID2331、追跡ID2332とポインタ2333-1とポインタ2333-2との組、の各エントリから構成されている。容器ID2331のエントリには、容器400を一意に識別するIDが設定される。追跡ID2332とポインタ2333-1とポインタ2333-2との組からなるエントリは、追跡対象の浮遊物毎に設けられる。追跡ID2332の項目には、追跡対象の浮遊物を同じ容器400内の他の浮遊物と識別するためのIDが設定される。ポインタ2333-1の項目には、追跡対象とする浮遊物の移動軌跡情報2334へのポインタが設定される。ポインタ2333-2の項目には、追跡対象とする浮遊物の移動軌跡情報の観測諸元リスト2335へのポインタが設定される。
 移動軌跡情報2334は、時刻23341と位置情報23342とサイズ23343と色23344と形状23345との組からなるエントリから構成されている。時刻23341と位置情報23342とサイズ23343と色23344と形状23345との項目には、撮影時刻とその撮影時刻における追跡対象の浮遊物の位置を示す座標値と浮遊物のサイズと浮遊物の色と浮遊物の形状とが設定される。時刻23341に設定する撮影時刻は、フレーム画像の撮影時刻2322を用いる。座標値は、例えば、予め定められた座標系における座標値であってよい。また、予め定められた座標系は、カメラを中心としてみたカメラ座標系であってもよいし、空間中のある位置を中心として考えたワールド座標系であってもよい。移動軌跡情報2334のエントリは、時刻23341の順に並べられている。先頭のエントリの時刻23341は、追跡開始時刻である。最後尾のエントリの時刻23341は、追跡終了時刻である。先頭および最後尾以外のエントリの時刻23341は、追跡中間時刻である。
 観測諸元リスト2335は、移動軌跡情報2334から推定される浮遊物の種類の確信度に関係すると考えられる観測諸元のリストである。本例の観測諸元リスト2335は、移動軌跡情報2334に係る追跡長23351と浮遊物の大きさ23352と追跡開始時刻23353と追跡領域23354と移動軌跡情報の品質23355との組からなるエントリから構成されている。
 追跡長23351の項目には、移動軌跡情報2334が表す移動軌跡の長さが設定される。移動軌跡の長さは、移動軌跡情報2334を構成するエントリ数(即ち、フレーム画像数)であってもよいし、追跡開始時刻から追跡終了時刻までの時間長であってもよい。移動軌跡が長く観測された浮遊物ほど、その浮遊物の種類に応じた動きが移動軌跡中に現れている確率が高いと考えられる。反対に、移動軌跡が短い浮遊物は、その浮遊物の種類に応じた動きが移動軌跡に現れている確率が低いと考えられる。従って、追跡長23351は、移動軌跡から推定される浮遊物の種類の確信度に関係する観測諸元の1つになり得る。
 浮遊物の大きさ23352の項目には、移動軌跡情報2334に含まれるサイズ23343を統計処理した値(例えば、平均値、最大値、最小値、中央値)が設定される。サイズの大きい異物は、容器400の傾斜・揺動・回転を停止した後、初期に沈降する傾向がある。従って、浮遊物の大きさ23352は、移動軌跡から推定される浮遊物の種類の確信度に関係する観測諸元の1つになり得る。
 追跡開始時刻23353の項目には、移動軌跡情報2334の追跡開始時刻が設定される。追跡開始時刻は、換言すれば、容器400の傾斜・揺動・回転を停止させた時点から当該移動軌跡情報2334の追跡開始時点までの経過時間の長さを表す値である。追跡開始時刻23353が早いほど、液体の流動の影響を受け易いため浮遊物の種類に応じた動きが移動軌跡に現れるまでに時間がかかると考えられる。一方、追跡開始時刻23353が遅くなれば、液体の流動の影響が少なくなるため浮遊物の種類に応じた動きが移動軌跡に現れる確率が高くなると考えられる。従って、追跡開始時刻23353は、移動軌跡から推定される浮遊物の種類の確信度に関係する観測諸元の1つになり得る。
 追跡領域23354の項目には、移動軌跡情報2334が表す移動軌跡が容器400内のどの領域におけるものであるかを表す値が設定される。追跡領域は、観測場所とも呼ばれる。追跡領域23354は、例えば、移動軌跡の外接矩形を特定する値(例えば外接矩形の頂点の座標値)であってもよいし、上記外接矩形から容器400の液面・壁面・底面までの最短距離を表す値であってもよい。容器400の液面近くでは液面に浮いている気泡の影響により異物を正しく検出するのが難しい。また、容器400の壁面の近くではレンズ効果により浮遊物を正しく検出するのが容易でない。また、容器400の底面の近くは影などの影響により浮遊物を正しく検出するのが難しい。そのため、容器400内のどの領域における移動軌跡であるかは、その移動軌跡の信頼性、ひいてはその移動軌跡から推定される浮遊物の種類の確信度に影響を及ぼす。
 移動軌跡情報の品質23355の項目には、移動軌跡情報2334の品質が設定される。移動軌跡情報2334の品質は、例えば、移動軌跡情報2334に含まれる位置情報23342の不連続さ、サイズ23343・色23344・形状23345の変動量に基づいて判定してよい。例えば、検知や追跡の結果が不確かと予想される過剰なサイズの変動や位置の不連続さが存在する移動軌跡情報2334は、同じ浮遊物を追跡した結果の移動軌跡である信頼性に乏しい。そのため、移動軌跡情報の品質23355は、移動軌跡から推定される浮遊物の種類の確信度に関係する観測諸元の1つになり得る。
 但し、本発明で使用する観測諸元は上記に限定されない。識別モデルの特徴量に直接含まれないが、特徴量が正しく評価し難くなる条件、観測自体の失敗などによる例外的誤りを増やし得る条件など、移動軌跡から推定される浮遊物の種類の確信度に関係するものであれば、他の任意の観測諸元を利用してよい。また、使用する観測諸元は、観測の特性から決めてもよい(検知・追跡処理で仮定した前提が崩れる条件など)し、実際の誤りから推定した条件(識別根拠がはっきり読み取れない条件など)でもよい。
 識別モデル234は、浮遊物の移動軌跡を表す時系列データから浮遊物の種類を推定するモデルである。識別モデル234は、例えば、RNNやLSTMなどのニューラルネットワークの再帰的構造を用いて構成してよい。或いは、識別モデル234は、パディング、プーリング処理やリサイズを用いて、固定長データの識別に帰着してもよい。
 確信度予測モデル235は、浮遊物の移動軌跡を表す時系列データの観測諸元から、当該観測諸元に係る時系列データに基づいて識別モデル234によって推定された結果の確信度を予測するモデルである。確信度予測モデル235は、例えば、ニューラルネットワークを用いて構成してよい。或いは、確信度予測モデル235は、線形識別器、決定木などでもよい。
 検査結果情報236は、容器400に封入された液体中の異物の有無を検査した結果に応じた情報を含んでいる。検査結果には、識別モデル234によって算出された浮遊物の種類の推定結果と、確信度予測モデル235によって算出された識別モデル234の推定結果の確信度とが含まれる。
 図5は、検査結果情報236の構成例を示す。この例の検査結果情報236は、容器ID2361、検査結果2362、異物検出数2363、気泡検出数2364、検出異物ID2365とポインタ2366との組、検出気泡ID2367とポインタ2368との組、の各エントリから構成されている。容器ID2361のエントリには、検査対象の容器400を一意に識別するIDが設定される。検査結果2362のエントリには、OK(検査合格)またはNG(検査不合格)の何れかの検査結果が設定される。異物検出数2363のエントリには、検出された異物の総数が設定される。気泡検出数2364のエントリには、検出された気泡の総数が設定される。なお、識別結果として、気泡と異物以外に液中の成分の凝集物などを含んでもよい。
 検出異物ID2365とポインタ2366との組のエントリは、検出された異物毎に設けられる。検出異物ID2365の項目には、検出された異物を同じ容器400内の他の異物と識別するためのIDが設定される。ポインタ2366の項目には、検出された異物の検出異物情報2369へのポインタが設定される。
 検出気泡ID2367とポインタ2368との組のエントリは、検出された気泡毎に設けられる。検出気泡ID2367の項目には、検出された気泡を同じ容器400内の他の気泡と識別するためのIDが設定される。ポインタ2368の項目には、検出された気泡の検出気泡情報2370へのポインタが設定される。
 検出異物情報2369は、追跡ID23691とポインタ23692-1とポインタ23692-2との組、判定結果23693、確信度23694、可視化画像23695、の各エントリから構成されている。追跡ID23691の項目には、検出された異物の追跡ID2332が設定される。ポインタ23692-1の項目には、検出された異物の移動軌跡情報23696へのポインタが設定される。移動軌跡情報23696は、検出された異物の追跡時の移動軌跡情報2334のコピーである。ポインタ23692-2の項目には、検出された異物の移動軌跡情報23696に係る観測諸元リスト23697へのポインタが設定される。観測諸元リスト23697は、検出された異物の追跡時の移動軌跡情報2334に係る観測諸元リスト2335のコピーである。判定結果23693のエントリには、判定結果が「異物」である旨のテキストが設定される。確信度23694のエントリには、判定結果23693の確からしさを表す指標である確信度が設定される。可視化画像23695のエントリには、検出された異物の移動軌跡情報23696を可視化した画像が少なくとも1枚設定される。
 検出気泡情報2370は、追跡ID23701とポインタ23702-1とポインタ23702-2との組、判定結果23703、確信度23704、可視化画像23705、の各エントリから構成されている。追跡ID23701の項目には、検出された気泡の追跡ID2332が設定される。ポインタ23702-1の項目には、検出された気泡の移動軌跡情報23706へのポインタが設定される。移動軌跡情報23706は、検出された気泡の追跡時の移動軌跡情報2334のコピーである。ポインタ23702-2の項目には、検出された気泡の移動軌跡情報23706に係る観測諸元リスト23707へのポインタが設定される。観測諸元リスト23707は、検出された気泡の追跡情報の移動軌跡情報2334に係る観測諸元リスト2335のコピーである。判定結果23703のエントリには、判定結果が「気泡」である旨のテキストが設定される。確信度23704のエントリには、判定結果23703の確からしさを表す指標である確信度が設定される。可視化画像23705のエントリには、検出された気泡の移動軌跡情報23706を可視化した画像が少なくとも1枚設定される。
 再び図2を参照すると、演算処理部240は、MPUなどのマイクロプロセッサとその周辺回路を有し、記憶部230からプログラム231を読み込んで実行することにより、上記ハードウェアとプログラム231とを協働させて各種処理部を実現するように構成されている。演算処理部240で実現される主な処理部には、取得部241、識別モデル学習部242、確信度予測モデル学習部243、および、判定部244がある。
 取得部241は、把持装置110およびカメラ装置130を制御して、容器400に封入された液体中に存在する浮遊物の像を写した画像情報232を取得するように構成されている。また、取得部241は、画像情報232を解析することにより、浮遊物の移動軌跡を表す時系列データとその観測諸元とを含む追跡情報233を取得するように構成されている。以下、取得部241の詳細を説明する。
 取得部241は、先ず、検査対象の容器400を正立した姿勢で把持している把持装置110を起動することにより、検査対象の容器400を傾斜・揺動・回転させる。次に、取得部241は、起動後、一定時間が経過すると、把持装置110を停止させることにより、容器400を所定の姿勢で静止させる。このように容器400を一定時間にわたって傾斜・揺動・回転させた後に静止させることにより、静止した容器400内で液体が慣性によって流動する状態が得られる。次に、取得部241は、照明装置120による透過照明の下で、検査対象の容器400内の液体をカメラ装置130によって所定のフレームレートで連続して撮影する動作を開始する。即ち、取得部241は、容器400が傾斜・揺動・回転された後に静止した時刻を時刻Tsとすると、時刻Tsから上記撮影動作を開始する。
 また、取得部241は、時刻Tsから所定時間Twが経過する時刻Teまで、容器400内の液体をカメラ装置130によって連続して撮影し続ける。上記所定時間Twは、例えば、液体中を浮遊する浮遊物が全て気泡であると仮定した場合に、全ての気泡が容器400の上方に向かって移動し、もはや下方に移動するとは考えられないような移動軌跡が得られるのに必要な時間(以下、最小撮影時間長と記す)以上に設定されていてよい。最小撮影時間長は、予め実験などによって決定され、取得部241に固定的に設定されていてよい。なお、取得部241は、時刻Teに達したときに、カメラ装置130による撮影を直ちに停止してもよいし、なおもカメラ装置130による撮影を続けてもよい。
 取得部241は、カメラ装置130から取得した時系列のフレーム画像のそれぞれに、撮影時刻および容器IDを付加し、画像情報232として記憶部230に保存する。
 次に取得部241は、所定時間長分の時系列のフレーム画像が取得されると、それらのフレーム画像のそれぞれから、容器400内の液体中の浮遊物の陰影を検出する。例えば、取得部241は、以下に記載するような方法によって液体中の浮遊物の陰影を検出する。但し、取得部241は、以下に記載した以外の方法によって液体中の浮遊物の陰影を検出してよい。
 先ず、取得部241は、フレーム画像のそれぞれに対して2値化処理を行って、2値化フレーム画像を作成する。次に、取得部241は、2値化フレーム画像のそれぞれから、以下のようにして浮遊物の陰影を検出する。
 取得部241は、先ず、浮遊物の陰影を検出する対象とする2値化フレーム画像を注目中2値化フレーム画像とする。次に、注目中2値化フレーム画像と、撮影時刻がΔtだけ後の2値化フレーム画像との差分画像を生成する。ここで、Δtは、2つの画像において同じ浮遊物が一部分で重なるか、重ならない場合でもごく近接した位置に現れる程度の時間に設定される。そのため、時間差Δtは、液体および異物の性質や流動状態などに応じて定められる。上記差分画像では、2つの2値化フレーム画像で一致する画像部分は消去され、相違する画像部分だけが残される。このため、2つの2値化フレーム画像の同じ位置に現れる容器400の輪郭や傷などは消去され、浮遊物の陰影だけが現れる。取得部241は、差分画像で陰影が現れた箇所に対応する注目中2値化フレーム画像の陰影を、注目中2値化フレーム画像中に存在する浮遊物の陰影として検出する。
 取得部241は、検出された浮遊物を時系列の画像の中で追跡し、追跡の結果に応じて追跡情報233を作成する。先ず、取得部241は、追跡情報233を初期化する。この初期化では、図4の容器ID2331のエントリに検査対象の容器400の容器IDが設定される。次に、取得部241は、以下に記載するような方法によって、時系列の画像の中で、浮遊物を追跡し、その追跡結果に応じて、浮遊物毎に、図4の追跡ID2332とポインタ2333-1とポインタ233-2との組のエントリ、移動軌跡情報2334、観測諸元リスト2335を作成する。
 先ず、取得部241は、上記作成した2値化フレーム画像の時系列のうち、撮影時刻が最も過去の2値化フレーム画像に注目する。次に、取得部241は、注目中2値化フレーム画像において検出された浮遊物それぞれに、一意となる追跡IDを付与する。次に、取得部241は、検出された浮遊物毎に、注目中2値化フレーム画像において検出された浮遊物に付与した追跡IDを、図4の追跡ID2332の項目に設定し、対応するポインタ2333-1で指示される移動軌跡情報2334の先頭エントリの時刻23341の項目に注目中2値化フレーム画像の撮影時刻を設定し、位置情報23342とサイズ23343と色23344と形状23345との項目に注目中2値化フレーム画像における浮遊物の座標値とサイズと色と形状とを設定する。
 次に、取得部241は、注目中2値化フレーム画像より1フレームだけ後の2値化フレーム画像に注目を移す。次に、取得部241は、注目中2値化フレーム画像において検出された浮遊物の1つに注目する。次に、取得部241は、注目中浮遊物の位置と、1フレームだけ前の2値化フレーム画像(以下、先行2値化フレーム画像と記す)において検出された浮遊物の位置とを比較し、注目中浮遊物から予め定められた閾値距離以内に浮遊物が存在すれば、注目中浮遊物と当該閾値距離以内に存在した浮遊物とは同一の浮遊物であると判定する。この場合、取得部241は、注目中の浮遊物に、同一の浮遊物と判定した浮遊物に対して付与されている追跡IDを付与する。そして、取得部241は、付与した追跡ID2332が設定されている追跡情報233のエントリのポインタ2333-1が指し示す移動軌跡情報2334に新たなエントリを確保し、その確保したエントリの時刻23341と位置情報23342とサイズ23343と色23344と形状23345とに、注目中2値化フレーム画像の撮影時刻と注目中浮遊物の座標値とサイズと色と形状とを設定する。
 一方、取得部241は、先行2値化フレーム画像において注目中浮遊物から閾値距離以内に浮遊物が存在しない場合、注目中浮遊物は新規な浮遊物と判定し、新たな追跡IDを付与する。次に、取得部241は、注目中浮遊物に付与した追跡IDを、新たに確保したエントリの図4の追跡ID2332の項目に設定し、対応するポインタ2333-1で指示される移動軌跡情報2334の先頭エントリの時刻23341の項目に注目中2値化フレーム画像の撮影時刻を設定し、位置情報23342とサイズ23343と色23344と形状23345との項目に注目中浮遊物の座標値とサイズと色と形状とを設定する。
 取得部241は、注目中浮遊物についての処理を終えると、注目中2値化フレーム画像において検出された次の浮遊物に注目を移し、前述した処理と同様の処理を繰り返す。そして、取得部241は、注目中2値化フレーム画像において検出された全ての浮遊物について注目し終えると、1フレームだけ後のフレーム画像に注目を移し、上述した処理と同様の処理を繰り返す。そして、取得部241は、画像情報232における最後のフレーム画像まで注目し終えると、追跡処理を終了する。
 以上の説明では、取得部241は、隣接する2つのフレーム画像における浮遊物間の距離に基づいて追跡を行った。しかし、取得部241は、nフレーム(nは1以上の正の整数)を挟んで隣接する2つのフレーム画像における浮遊物間の距離に基づいて追跡を行うようにしてもよい。また、取得部241は、mフレーム(mは0以上の正の整数)を挟んで隣接する2つのフレーム画像における浮遊物間の距離に基づいて追跡を行った追跡結果と、m+jフレーム(jは1以上の正の整数)を挟んで隣接する2つのフレーム画像における浮遊物間の距離に基づいて追跡を行った追跡結果とを総合的に判断して追跡を行うようにしてもよい。
 取得部241は、追跡処理を終えると、上述のようにして作成した移動軌跡情報2334毎に観測諸元リスト2335を作成する。先ず、取得部241は、移動軌跡情報2334の1つに注目する。次に取得部241は、ポインタ2333-2に設定したポインタが指す領域に注目中の移動軌跡情報2334に係る初期状態の観測諸元リスト2335を作成する。次に取得部241は、追跡長23351の項目に、注目中の移動軌跡情報2334が表す移動軌跡の長さを設定する。次に取得部241は、浮遊物の大きさ23352の項目に、注目中の移動軌跡情報2334に含まれるサイズ23343を統計処理した値を設定する。次に取得部241は、追跡開始時刻23353の項目に、注目中の移動軌跡情報2334の追跡開始時刻を設定する。次に取得部241は、追跡領域23354の項目に、注目中の移動軌跡情報2334が表す移動軌跡が容器400内のどの領域におけるものであるかを表す値を設定する。次に取得部241は、移動軌跡情報の品質23355の項目に、注目中の移動軌跡情報2334の品質を表す数値を設定する。取得部241は、注目中の移動軌跡情報2334に係る観測諸元リスト2335を作成し終えると、残りの移動軌跡情報2334の1つに注目を移し、前述したと同様の処理を繰り返す。この処理を全ての移動軌跡情報2334について注目し終えるまで繰り返す。
 識別モデル学習部242は、識別モデル234を機械学習により生成するように構成されている。
 識別モデル学習部242は、浮遊物の移動軌跡を表す時系列データとその浮遊物の種類とを教師データ(以下、第1の教師データとも記す)として用いる。浮遊物の移動軌跡を表す時系列データは、例えば、図4に示した移動軌跡情報2334を使用してよい。或いは、浮遊物の移動軌跡を表す時系列データは、例えば、図4に示した移動軌跡情報2334からサイズ23343、色23344、および、形状23345の1つ、または2つ、または全てを取り除いた残りの情報であってよい。また、浮遊物の種類は、異物および気泡の何れかを表すラベル値であってよい。このように第1の教師データは、浮遊物の移動軌跡を表す時系列データとその浮遊物の種類を表すラベルとを含む。このような第1の教師データは、例えば、ユーザとの間の対話的処理によって作成することができる。例えば、識別モデル学習部242は、取得部241によって取得された移動軌跡情報2334を表示装置300の画面に表示し、操作入力部220を通じてユーザから当該移動軌跡情報2334のラベルを受け付ける。そして、識別モデル学習部242は、表示した移動軌跡情報2334と受け付けたラベルとの組を1つの第1の教師データとして作成する。但し、第1の教師データの作成方法は上記に限定されない。
 識別モデル学習部242は、上記のような第1の教師データを用い、入力を浮遊物(異物または気泡)の移動軌跡を表す時系列データとし、出力を浮遊物の種類とする識別モデル234を機械学習により生成するように構成されている。
 確信度予測モデル学習部243は、確信度予測モデル235を機械学習により生成するように構成されている。
 図6は、確信度予測モデル235の機械学習に用いる教師データを作成する方法の一例を示す模式図である。図6において、教師データ250のそれぞれは、浮遊物の移動軌跡を表す時系列データ2501とその浮遊物の種類2502とその観測諸元2503とを含んで構成されている。時系列データ2501は、例えば、図4に示した移動軌跡情報2334を使用してよい。或いは、時系列データ2501は、例えば、図4に示した移動軌跡情報2334からサイズ23343、色23344、および、形状23345の1つ、または2つ、または全てを取り除いた残りの情報であってよい。また、観測諸元2503は、図4に示した移動軌跡情報2334の観測諸元リスト2335を使用してよい。また、浮遊物の種類2502は、異物および気泡の何れかを表すラベル値であってよい。このようなラベル値は、例えば、ユーザとの間の対話的処理によって作成することができる。例えば、確信度予測モデル学習部243は、取得部241によって取得された移動軌跡情報2334を表示装置300の画面に表示し、操作入力部220を通じてユーザから当該移動軌跡情報2334のラベルを受け付ける。そして、確信度予測モデル学習部243は、表示した移動軌跡情報2334と受け付けたラベルと移動軌跡情報2334の観測諸元リスト2335との組を1つの教師データとして作成する。但し、教師データの作成方法は上記に限定されない。
 また、確信度予測モデル学習部243は、1つの教師データ250から1つの新たな教師データ252を以下のようにして作成する。先ず、確信度予測モデル学習部243は、教師データ250中の時系列データ2501を、学習済みの識別モデル234に入力し、識別モデル234から最終的に出力される浮遊物の種類の推定結果を取得する。次に、確信度予測モデル学習部243は、識別モデル234の推定結果が表す浮遊物の種類と教師データ250中の浮遊物の種類とを比較する(ブロック251)。次に、確信度予測モデル学習部243は、比較結果に応じた値に設定した確信度2521と教師データ250中の観測諸元2503との組を教師データ252として作成する。
 上記の比較結果に応じた値として、両者が一致する場合(すなわち、識別モデル234の推定結果が正しい場合)には、大きな値(例えば1或いは1により近い値)としてよい。この値は事前に定められた固定値(例えば1)を使用してもよいし、識別モデル234の正解クラスのソフトマックス値(TCP)を使用してもよい。一方、両者が一致しない場合(すなわち、識別モデル234の推定結果が誤っている場合)には、小さな値(例えば0或いは0により近い値)としてよい。この値は事前に定められた固定値(例えば0)を使用してもよいし、識別モデル234の正解クラスのソフトマックス値(TCP)を使用してもよい。
 確信度予測モデル学習部243は、上記のようにして作成した教師データ252を用い、入力を観測により得られた浮遊物の移動軌跡を表す時系列データの観測諸元とし、出力を上記観測諸元に係る時系列データから推定される識別モデル234の推定結果の確信度とする確信度予測モデル235を機械学習により生成するように構成されている。
 判定部244は、学習済みの識別モデル234を用いて、取得部241によって取得された容器400に封入された液体中の浮遊物の移動軌跡を表す時系列データから浮遊物の種類を推定するように構成されている。また、判定部244は、学習済みの確信度予測モデル235を用いて、取得部241によって取得された観測諸元から識別モデル234の推定結果の確信度を予測するように構成されている。また、判定部244は、識別モデル234を用いて推定した浮遊物の種類と、確信度予測モデル235用いて登録側した識別モデル234の推定結果の確信度とを含む検査結果情報236を作成するように構成されている。
 例えば、判定部244は、記憶部230から追跡情報233を読み出し、追跡情報233に含まれる追跡ID毎に、浮遊物の移動軌跡を表す移動軌跡情報2334を時系列データとして学習済みの識別モデル234に入力することにより、当該追跡IDの浮遊物が異物であるか気泡であるかを判定する。また、判定部244は、追跡情報233に含まれる追跡ID毎に、浮遊物の移動軌跡の観測諸元リスト2335を学習済みの確信度予測モデル235に入力することにより、識別モデル234を用いて判定した浮遊物の種類の判定結果の確信度を予測する。そして、判定部244は、判定結果に応じた検査結果情報236を作成し、記憶部230に保存する。また、判定部244は、検査結果情報236を表示装置300に表示し、または/および、通信I/F部210を通じて外部装置へ送信する。
 次に、本実施形態に係る検査システム100の動作を説明する。検査システム100のフェーズは、学習フェーズと検査フェーズとに大別される。学習フェーズは、識別モデル234および確信度予測モデル235を機械学習により作成するフェーズである。検査フェーズは、学習済みの識別モデル234および確信度予測モデル235を用いて、容器400に封入された液体中の異物の有無を検査するフェーズである。
 図7は学習フェーズの動作の一例を示すフローチャートである。図7を参照すると、先ず、取得部241は、把持装置110およびカメラ装置130を制御して、容器400に封入された液体中に存在する浮遊物の像を写した画像情報232を取得する(ステップS1)。次に、取得部241は、画像情報232を解析することにより、浮遊物の移動軌跡を表す時系列データとその観測諸元とを含む追跡情報233を取得する(ステップS2)。
 次に、識別モデル学習部242は、識別モデル234の機械学習に用いる第1の教師データを作成する(ステップS3)。次に、識別モデル学習部242は、作成した第1の教師データを用い、入力を浮遊物の移動軌跡を表す時系列データとし、出力を浮遊物の種類とする識別モデル234を機械学習により生成する(ステップS4)。
 次に、確信度予測モデル学習部243は、確信度予測モデル235の機械学習に用いる第2の教師データを作成する(ステップS5)。次に、確信度予測モデル学習部243は、作成した第2の教師データを用い、入力を観測により得られた浮遊物の移動軌跡を表す時系列データの観測諸元とし、出力を上記観測諸元に係る時系列データから推定される識別モデル234の推定結果の確信度とする確信度予測モデル235を機械学習により生成する(ステップS6)。
 図8は検査フェーズの動作の一例を示すフローチャートである。図8を参照すると、先ず、取得部241は、把持装置110およびカメラ装置130を制御して、容器400に封入された液体中に存在する浮遊物の像を写した画像情報232を取得する(ステップS11)。次に、取得部241は、画像情報232を解析することにより、浮遊物の移動軌跡を表す時系列データとその観測諸元とを含む追跡情報233を取得する(ステップS12)。
 次に、判定部244は、学習済みの識別モデル234を用いて、追跡情報233に含まれる浮遊物の移動軌跡を表す時系列データから浮遊物の種類を推定する(ステップS13)。次に、判定部244は、学習済みの確信度予測モデル235を用いて、追跡情報233に含まれる浮遊物の移動軌跡を表す時系列データの観測諸元リストから、識別モデル234による上記推定結果の確信度を予測する(ステップS14)。次に、判定部244は、推定した浮遊物の種類および予測した推定結果の確信度に基づいて、検査結果情報236を作成する(ステップS15)。
 以上説明したように、本実施形態によれば、種類の異なる複数の浮遊物から観測により得られた互いに類似する複数の移動軌跡を表す時系列データであってもその観測諸元が相違する場合、それら時系列データから推定される浮遊物の種類の推定結果の確信度間に差を付けることができる。その理由は、確信度予測モデル学習部243は、取得部241により得られた浮遊物の移動軌跡を表す時系列データとその観測諸元と上記浮遊物の種類との組から構成されるソースデータを取得し、学習された識別モデル234を用いてソースデータ中の時系列データから推定される対象物の種類がソースデータ中の対象物の種類とを教師データとして用いて、確信度予測モデル235を機械学習により生成するためである。また、判定部244は、取得部241により得られた対象物の移動軌跡を表す時系列データに係る観測諸元を取得し、学習済みの確信度予測モデル235を用いて、上記取得した観測諸元から推定される識別モデル234の推定結果の確信度を出力するためである。
 続いて、本実施形態の変形例について説明する。
<変形例1>
 判定部244は、確信度予測モデル235によって予測された確信度に基づいて、識別モデル234による推定結果を修正ないし補正してよい。
 例えば、判定部244は、識別モデル234を用いて時系列データから推定した浮遊物の種類が異物であった場合、確信度予測モデル235を用いて当該時系列データの観測諸元から予測した上記推定結果の確信度が予め定められた閾値より小さい(低い)ときは、上記浮遊物の種類を異物でなく気泡に修正してよい。
 また例えば、判定部244は、識別モデル234を用いて時系列データから推定した浮遊物の種類が異物であった場合、確信度予測モデル235を用いて当該時系列データの観測諸元から予測した上記推定結果の確信度を、異物らしさスコアとして算出してよい。
 また例えば、判定部244は、識別モデル234を用いて時系列データから推定した浮遊物の種類が異物であった場合、識別モデル234による異物らしさスコア(識別モデル234が出力する異物の確率)を、確信度予測モデル235を用いて当該時系列データの観測諸元から予測した上記推定結果の確信度を用いて補正してよい。
<変形例2>
 確信度予測モデル学習部243は、識別モデル234の所定の出力を確信度予測モデル235の学習に使ってもよい。ここで、識別モデル234の所定の出力とは、例えば、識別モデル234の中間層から出力される特徴量としてよい。図9は、確信度予測モデル235の機械学習に用いる教師データを作成する方法の他の例を示す模式図である。図9において、図6と同一符号は同一部分を示し、252Aは教師データ、2522は識別モデル234の所定の出力である。図9を参照すると、確信度予測モデル学習部243は、1つの教師データ250から1つの新たな教師データ252Aを以下のようにして作成する。先ず、確信度予測モデル学習部243は、教師データ250中の時系列データ2501を、学習済みの識別モデル234に入力し、識別モデル234から最終的に出力される浮遊物の種類の識別結果と所定の出力2522とを取得する。次に、確信度予測モデル学習部243は、図6と同様に、識別モデル234の推定結果が表す浮遊物の種類と教師データ250中の浮遊物の種類とを比較した結果に応じた確信度2521を作成する(ブロック251)。そして、確信度予測モデル学習部243は、確信度2521と教師データ250中の観測諸元2503と所定の出力2522との組を教師データ252Aとして作成する。
 確信度予測モデル学習部243は、上記のようにして作成した教師データ252Aを用い、入力を観測により得られた浮遊物の移動軌跡を表す時系列データの観測諸元と当該時系列データを識別モデル234に入力したときに識別モデル234から出力される所定の出力2522との組とし、出力を上記観測諸元に係る時系列データから推定される識別モデル234の推定結果の確信度とする確信度予測モデル235を機械学習により生成するように構成されている。
 また、判定部244は、識別モデル234の上記所定の出力を確信度予測に使ってもよい。例えば、判定部244は、学習済みの確信度予測モデル235に対して、追跡情報233に含まれる浮遊物の移動軌跡を表す時系列データの観測諸元リストと当該時系列データを識別モデル234に入力したときに識別モデル234から出力される所定の出力2522との組を入力し、識別モデル234の推定結果の確信度を取得する。
 以上の説明では、識別モデル234の所定の出力は、識別モデル234の中間層から出力される特徴量とした。しかし、識別モデル234の所定の出力は上記に限定されない。識別モデル234の所定の出力は、識別モデル234の最終出力としてもよい。
<変形例3>
 識別モデル学習部242は、図7のステップS6において確信度予測モデル235が生成された後の任意の時点において、ステップS4において生成した識別モデル234の更なる学習を行ってよい。その場合、識別モデル学習部242は、学習済みの確信度予測モデル235で予測される確信度に基づいて、識別モデル243の学習を制御するようにしてよい。
 図10は、変形例3による識別モデル234の学習方法の例を示す模式図である。図10において、教師データ260は、浮遊物の移動軌跡を表す時系列データ2601とその浮遊物の種類2602とを含んで構成される。また、教師データ260毎に、その時系列データ2601の観測諸元2603が用意されている。識別モデル学習部242は、教師データ260を用いて識別モデル234を学習する際、教師データ260と組みになる観測諸元2603を学習済みの確信度予測モデル235に入力し、確信度予測モデル235から出力される確信度によって、識別モデル234の学習を制御する。例えば、識別モデル学習部242は、確信度がより低いほど、学習の重みをより小さくする。これによって、識別モデル234の識別精度を向上させることができる。
<変形例4>
 この変形例では、確信度予測モデル学習部243は、観測により得られた浮遊物の移動軌跡を表す時系列データを幾つかの部分時系列データに分割し、個々の部分時系列データの観測諸元を用いて、確信度予測モデル235の機械学習を行うように構成されている。
 図11は、変形例4において確信度予測モデル235の機械学習に用いる教師データを作成する方法の一例を示す模式図である。図11において、教師データ250のそれぞれは、図6を参照して既に説明したような時系列データ2501と浮遊物の種類2502と観測諸元2503とを含んで構成されている。時系列データ2501は、例えば図4の移動軌跡情報2334であり得る。また、観測諸元2503は、例えば図4の観測諸元リスト2335であり得る。
 変形例4では、確信度予測モデル学習部243は、教師データ250のそれぞれを新たな2つの教師データ250-1、250-2に変換するデータ変換部2431を有する。教師データ250-1は、時系列データ2501-1と浮遊物の種類2502-1と観測諸元2503-1とから構成される。教師データ250-2は、時系列データ2501-2と浮遊物の種類2502-2と観測諸元2503-2とから構成される。図11の例では、1つの教師データ250を2つの教師データに変換したが、3つ以上の教師データに変換してもよい。
 データ変換部2431は、例えば、以下のような方法によって、教師データ250を教師データ250-1、250-2に変換する。先ず、データ変換部2431は、教師データ250中の時系列データ2501の追跡開始時刻と追跡終了時刻との間の中間の時刻を算出する。次に、データ変換部2431は、時系列データ2501を、追跡開始時刻から中間時刻までの区間の時系列データ2501-1と中間時刻から追跡終了時刻までの時系列データ2501-2とに変換する。次に、データ変換部2431は、教師データ250の浮遊物の種類2502と同じ内容の浮遊物の種類2502-1、2502-2を作成する。次に、データ変換部2431は、時系列データ2501-1、2501-2から観測諸元2503-1、2503-2を作成する。
 例えば、データ変換部2431は、以下のような方法によって、時系列データ2501-1から観測諸元2503-1を作成する。先ず、データ変換部2431は、時系列データ2501-1を構成するフレーム画像数、または、時系列データ2501-1の先頭のフレーム画像の撮影時刻から最終のフレーム画像の撮影時刻までの時間長を算出し、それを時系列データ2501-1の追跡長とする。次に、データ変換部2431は、時系列データ2501-1に含まれるサイズ23343を統計処理した値(例えば、平均値、最大値、最小値、中央値)を算出し、それを浮遊物の大きさとする。次に、データ変換部2431は、時系列データ2501-1の先頭のフレーム画像の撮影時刻を取得し、それを追跡開始時刻とする。次に、データ変換部2431は、時系列データ2501-1が表す移動軌跡の外接矩形を特定する値(例えば外接矩形の頂点の座標値)を算出し、それを追跡領域とする。次に、データ変換部2431は、時系列データ2501-1に含まれる位置情報23342の不連続さ、サイズ23343・色23344・形状23345の変動量に基づいて、移動軌跡情報の品質を算出する。そして、データ変換部2431は、上述のようにして算出した追跡長、浮遊物の大きさ、追跡開始時刻、追跡領域、および、移動軌跡情報の品質の集まりから構成される観測諸元2503-1を作成する。同様の方法により、データ変換部2431は、時系列データ2501-2から観測諸元2503-2を作成する。
 次に、確信度予測モデル学習部243は、1つの教師データ250-1から新たな1つの教師データ252-1を以下のようにして作成する。先ず、確信度予測モデル学習部243は、教師データ250-1中の時系列データ2501-1を、学習済みの識別モデル234に入力し、識別モデル234から最終的に出力される浮遊物の種類の推定結果を取得する。次に、確信度予測モデル学習部243は、識別モデル234の推定結果が表す浮遊物の種類と教師データ250-1中の浮遊物の種類2502-1とを比較する(ブロック251)。次に、確信度予測モデル学習部243は、比較結果に応じた値に設定した確信度2521-1と教師データ250-1中の観測諸元2503-1との組を教師データ252-1として作成する。上記の比較結果に応じた値として、図6を参照して既に説明したような値としてよい。確信度予測モデル学習部243は、同様の方法により、教師データ250-2から新たな1つの教師データを作成する。その結果、n個の教師データ250から最終的に2×n個の教師データ252-1等が生成されることになる。
 確信度予測モデル学習部243は、上記のようにして作成した教師データ252-1等を用い、入力を観測により得られた浮遊物の移動軌跡を表す時系列データの観測諸元とし、出力を上記観測諸元に係る時系列データから推定される識別モデル234の推定結果の確信度とする確信度予測モデル235を機械学習により生成する。
 このように変形例4によれば、確信度予測モデル235の学習に用いる教師データの数を増大することができる。一般に容器に封入された液体中の異物検査では、異物が混入しているケース自体が稀であるため、異物の移動軌跡を表す時系列データの数は少ない。さらに、異物の識別精度が高い場合、不正解となる時系列データ(本来は気泡なのに異物と識別される時系列データや、本来は異物なのに気泡と識別される時系列データ)はさらに少ない。変形例4によれば、そのような数の少ない時系列データから多くの教師データを作成することができる。
<変形例5>
 変形例5では、変形例4において、確信度予測モデル学習部243は、識別モデル234を用いて時系列データから識別した結果を確信度予測モデル235の学習に使用する。図12は、変形例5における確信度予測モデル235の機械学習に用いる教師データを作成する方法の例を示す模式図である。図12において、図11と同一符号は同一部分を示し、252-1Aは教師データ、2522-1は識別モデル234の識別結果である。図12を参照すると、確信度予測モデル学習部243は、1つの教師データ250-1から1つの新たな教師データ252-1Aを以下のようにして作成する。先ず、確信度予測モデル学習部243は、教師データ250-1中の時系列データ2501-1を、学習済みの識別モデル234に入力し、識別モデル234から出力される推定結果2522-1を取得する。次に、確信度予測モデル学習部243は、推定結果2522-1が表す浮遊物の種類と教師データ250-1中の浮遊物の種類とを比較した結果に応じた確信度2521-1を作成する(ブロック251)。そして、確信度予測モデル学習部243は、確信度2521-1と教師データ250-1中の観測諸元2503-1と推定結果2522-1との組を教師データ252-1Aとして作成する。
 確信度予測モデル学習部243は、上記のようにして作成した教師データ252-1A等を用い、入力を観測により得られた浮遊物の移動軌跡を表す時系列データの観測諸元と当該時系列データを識別モデル234に入力したときに識別モデル234から出力される推定結果2522-1との組とし、出力を上記観測諸元に係る時系列データから推定される識別モデル234の推定結果の確信度とする確信度予測モデル235を機械学習により生成するように構成されている。
 また、判定部244は、識別モデル234の推定結果2522-1を確信度予測に使ってもよい。例えば、判定部244は、学習済みの確信度予測モデル235に対して、追跡情報233に含まれる浮遊物の移動軌跡を表す時系列データの観測諸元リストと当該時系列データを識別モデル234に入力したときに識別モデル234から出力される推定結果2522-1との組を入力し、確信度予測モデル235から出力される識別モデル234の推定結果の確信度を取得する。
 上記の変形例6では、確信度予測モデル学習部243は、時系列データ2501-1を、学習済みの識別モデル234に入力することにより、推定結果2522-1を取得した。しかし、部分的な時系列データ2501-1から推定される推定結果2522-1を取得する方法は、上記に限定されない。例えば、確信度予測モデル235を、途中の時系列データまでの特徴量に基づいて識別結果を出力するように構成しておくことにより、時系列データ2501-1を包含する時系列データ2501全体を学習済みの識別モデル234に入力し、時系列データ2501-1に相当する部分的な時系列データから推定される推定結果2522-1を識別モデル234から取得するようにしてもよい。上記のような構成を有する識別モデル234の例を図13の模式図に示す。図13を参照すると、識別モデル234は、例えばLSTMにより構成されており、最終段から実線矢印に示すように識別結果を出力することができると共に、途中の段から破線矢印に示すように途中フレームまでの特徴で識別結果を出力することができるように構成されている。
[第2の実施の形態]
 図14は、本発明の第2の実施形態に係る検査システム500のブロック図である。図14を参照すると、検査システム500は、識別モデル学習手段501と確信度予測モデル学習手段502と判定手段503とを備えている。
 識別モデル学習手段501は、観測により得られた対象物の移動軌跡を表す時系列データと対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから対象物の種類を推定する識別モデルを学習するように構成されている。識別モデル学習手段501は、例えば、図2の識別モデル学習部242と同様に構成することができるが、それに限定されない。
 確信度予測モデル学習手段502は、観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から識別モデルの推定結果の確信度を予測する確信度予測モデルを学習するように構成されている。確信度予測モデル学習手段502は、例えば、図2の確信度予測モデル学習部243と同様に構成することができるが、それに限定されない。
 判定手段503は、学習済みの識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから対象物の種類を推定するように構成されている。また、判定手段503は、学習済みの確信度予測モデルを用いて、時系列データの観測諸元から識別モデルの推定結果の確信度を予測するように構成されている。判定手段503は、例えば、図2の判定部244と同様に構成することができるが、それに限定されない。
 以上のように構成された検査システム500は、以下のように動作する。即ち、先ず、識別モデル学習手段501は、観測により得られた対象物の移動軌跡を表す時系列データと対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから対象物の種類を推定する識別モデルを学習する。次に、確信度予測モデル学習手段502は、観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から識別モデルの推定結果の確信度を予測する確信度予測モデルを学習する。次に、判定手段503は、学習済みの識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから対象物の種類を推定し、また、学習済みの確信度予測モデルを用いて、時系列データの観測諸元から識別モデルの推定結果の確信度を予測する。
 以上のように構成され動作する検査システム500によれば、種類の異なる複数の対象物から観測により得られた互いに類似する複数の移動軌跡を表す時系列データであってもその観測諸元が相違する場合、それら時系列データから推定される結果の確信度間に差を付けることができる。その理由は、確信度予測モデル学習手段502は、観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から識別モデルの推定結果の確信度を予測する確信度予測モデルを学習するためである。また、判定手段503は、学習済みの確信度予測モデルを用いて、時系列データの観測諸元から識別モデルの推定結果の確信度を予測するためである。
 以上、本発明について幾つかの実施形態および変形例を挙げて説明したが、本発明は以上の実施形態および変形例に限定されず、各種の付加変更が可能である。例えば、本発明は、上述した実施形態および変形例を組み合わせることもできる。例えば、第1の実施形態で説明した学習済みの識別モデルおよび確信度モデルを用いて識別および確信度予測を行う動作と、何れかの変形例で説明した学習済みの識別モデルおよび確信度予測モデルを用いて識別および確信度予測を行う動作とを、平行ないし交互に行う検査システムも本発明に含まれる。
 本発明は、観測により得られた対象物の移動軌跡を表す時系列データから対象物の種類を推定する検査システム全般に利用できる。例えば、本発明は、容器に封入された液体中の異物の有無を検査する検査システムに適用できる。また、本発明は、マウス等の移動軌跡を表す時系列データからマウス等の異常の有無を判定することにより、医薬品の安全性を調べる前臨床試験システムに適用できる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
 観測により得られた対象物の移動軌跡を表す時系列データと前記対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定する識別モデルを学習する識別モデル学習手段と、
 観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と前記対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する確信度予測モデルを学習する確信度予測モデル学習手段と、
 学習済みの前記識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定し、学習済みの前記確信度予測モデルを用いて、前記時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する判定手段と、
を備える検査システム。
[付記2]
 前記確信度予測モデル学習手段は、前記学習済みの識別モデルを用いて前記第2の教師データ中の前記時系列データから推定される対象物の種類が前記第2の教師データ中の対象物の種類と一致しないときは一致するときに比較して低い値となる確信度を取得し、前記取得した確信度と前記第2の教師データ中の前記観測諸元とを第3の教師データとして用いて前記確信度予測モデルを学習する、
付記1に記載の検査システム。
[付記3]
 前記観測諸元は、前記移動軌跡の長さ、前記対象物の大きさ、前記移動軌跡の開始時刻、前記移動軌跡の観測場所、および、前記時系列データの品質のうちの少なくとも1つを含む、
付記1または2に記載の検査システム。
[付記4]
 前記判定手段は、前記確信度の判定結果に基づいて、前記対象物の種類の判定結果を修正する、
付記1乃至3の何れかに記載の検査システム。
[付記5]
 前記確信度予測モデル学習手段は、前記第2の教師データ中の前記時系列データを学習済みの前記識別モデルに入力して得られる所定の出力を用いて前記確信度予測モデルを学習する、
付記1乃至4の何れかに記載の検査システム。
[付記6]
 前記識別モデル学習手段は、学習済みの前記確信度予測モデルで予測される確信度を学習の制御に用いて、学習済みの前記識別モデルを更に学習する、
付記1乃至5の何れかに記載の検査システム。
[付記7]
 前記確信度予測モデル学習手段は、前記第2の教師データを複数の新たな教師データに変換し、それぞれの新たな教師データは、前記第2の教師データ中の時系列データを複数の新たな時系列データに変換した後の1つの時系列データと前記第2の教師データ中の対象物の種類と前記1つの部分時系列データの観測諸元とを含み、
 前記確信度予測モデル学習手段は、前記新たな教師データを用いて、前記確信度予測モデルを学習する、
付記1乃至6の何れかに記載の検査システム。
[付記8]
 前記確信度予測モデル学習手段は、前記新たな教師データ中の時系列データを学習済みの前記識別モデルに入力して得られる識別結果を用いて、前記確信度予測モデルを機械学習する、
付記7に記載の検査システム。
[付記9]
 観測により得られた対象物の移動軌跡を表す時系列データと前記対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定する識別モデルを学習し、
 観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と前記対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する確信度予測モデルを学習し、
 学習済みの前記識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定し、学習済みの前記確信度予測モデルを用いて、前記時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する、
検査方法。
[付記10]
 コンピュータに、
 観測により得られた対象物の移動軌跡を表す時系列データと前記対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定する識別モデルを学習する処理と、
 観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と前記対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する確信度予測モデルを学習する処理と、
 学習済みの前記識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定し、学習済みの前記確信度予測モデルを用いて、前記時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する処理と、
を行わせるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
100 検査システム
110 把持装置
120 照明装置
130 カメラ装置
200 検査装置
300 表示装置
400 容器
401 キャップ

Claims (10)

  1.  観測により得られた対象物の移動軌跡を表す時系列データと前記対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定する識別モデルを学習する識別モデル学習手段と、
     観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と前記対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する確信度予測モデルを学習する確信度予測モデル学習手段と、
     学習済みの前記識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定し、学習済みの前記確信度予測モデルを用いて、前記時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する判定手段と、
    を備える検査システム。
  2.  前記確信度予測モデル学習手段は、前記学習済みの識別モデルを用いて前記第2の教師データ中の前記時系列データから推定される対象物の種類が前記第2の教師データ中の対象物の種類と一致しないときは一致するときに比較して低い値となる確信度を取得し、前記取得した確信度と前記第2の教師データ中の前記観測諸元とを第3の教師データとして用いて前記確信度予測モデルを学習する、
    請求項1に記載の検査システム。
  3.  前記観測諸元は、前記移動軌跡の長さ、前記対象物の大きさ、前記移動軌跡の開始時刻、前記移動軌跡の観測場所、および、前記時系列データの品質のうちの少なくとも1つを含む、
    請求項1または2に記載の検査システム。
  4.  前記判定手段は、前記確信度の判定結果に基づいて、前記対象物の種類の判定結果を修正する、
    請求項1乃至3の何れかに記載の検査システム。
  5.  前記確信度予測モデル学習手段は、前記第2の教師データ中の前記時系列データを学習済みの前記識別モデルに入力して得られる所定の出力を用いて前記確信度予測モデルを学習する、
    請求項1乃至4の何れかに記載の検査システム。
  6.  前記識別モデル学習手段は、学習済みの前記確信度予測モデルで予測される確信度を学習の制御に用いて、学習済みの前記識別モデルを更に学習する、
    請求項1乃至5の何れかに記載の検査システム。
  7.  前記確信度予測モデル学習手段は、前記第2の教師データを複数の新たな教師データに変換し、それぞれの新たな教師データは、前記第2の教師データ中の時系列データを複数の新たな時系列データに変換した後の1つの時系列データと前記第2の教師データ中の対象物の種類と前記1つの時系列データの観測諸元とを含み、
     前記確信度予測モデル学習手段は、前記新たな教師データを用いて、前記確信度予測モデルを学習する、
    請求項1乃至6の何れかに記載の検査システム。
  8.  前記確信度予測モデル学習手段は、前記新たな教師データ中の時系列データを学習済みの前記識別モデルに入力して得られる識別結果を用いて、前記確信度予測モデルを機械学習する、
    請求項7に記載の検査システム。
  9.  観測により得られた対象物の移動軌跡を表す時系列データと前記対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定する識別モデルを学習し、
     観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と前記対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する確信度予測モデルを学習し、
     学習済みの前記識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定し、学習済みの前記確信度予測モデルを用いて、前記時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する、
    検査方法。
  10.  コンピュータに、
     観測により得られた対象物の移動軌跡を表す時系列データと前記対象物の種類とを第1の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定する識別モデルを学習する処理と、
     観測により得られた対象物の移動軌跡を表す時系列データとその観測諸元と前記対象物の種類とを第2の教師データとして用い、観測により得られた対象物の移動軌跡を表す時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する確信度予測モデルを学習する処理と、
     学習済みの前記識別モデルを用いて、観測により得られた対象物の移動軌跡を表す時系列データから前記対象物の種類を推定し、学習済みの前記確信度予測モデルを用いて、前記時系列データの観測諸元から前記識別モデルの推定結果の確信度を予測する処理と、
    を行わせるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2021/018652 2021-05-17 2021-05-17 検査システム WO2022244075A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/018652 WO2022244075A1 (ja) 2021-05-17 2021-05-17 検査システム
JP2023522022A JPWO2022244075A1 (ja) 2021-05-17 2021-05-17

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/018652 WO2022244075A1 (ja) 2021-05-17 2021-05-17 検査システム

Publications (1)

Publication Number Publication Date
WO2022244075A1 true WO2022244075A1 (ja) 2022-11-24

Family

ID=84141336

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/018652 WO2022244075A1 (ja) 2021-05-17 2021-05-17 検査システム

Country Status (2)

Country Link
JP (1) JPWO2022244075A1 (ja)
WO (1) WO2022244075A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011153944A (ja) * 2010-01-28 2011-08-11 Hitachi High-Technologies Corp 自動分析装置
CN104215584A (zh) * 2014-08-29 2014-12-17 华南理工大学 一种基于高光谱图像技术区分大米产地的检测方法
US20180322660A1 (en) * 2017-05-02 2018-11-08 Techcyte, Inc. Machine learning classification and training for digital microscopy images
JP2019174346A (ja) * 2018-03-29 2019-10-10 富士通株式会社 検査方法、検査装置、及び検査プログラム
JP2019529882A (ja) * 2016-08-22 2019-10-17 アイリス インターナショナル, インコーポレイテッド 生体粒子の分類のシステム及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011153944A (ja) * 2010-01-28 2011-08-11 Hitachi High-Technologies Corp 自動分析装置
CN104215584A (zh) * 2014-08-29 2014-12-17 华南理工大学 一种基于高光谱图像技术区分大米产地的检测方法
JP2019529882A (ja) * 2016-08-22 2019-10-17 アイリス インターナショナル, インコーポレイテッド 生体粒子の分類のシステム及び方法
US20180322660A1 (en) * 2017-05-02 2018-11-08 Techcyte, Inc. Machine learning classification and training for digital microscopy images
JP2019174346A (ja) * 2018-03-29 2019-10-10 富士通株式会社 検査方法、検査装置、及び検査プログラム

Also Published As

Publication number Publication date
JPWO2022244075A1 (ja) 2022-11-24

Similar Documents

Publication Publication Date Title
US10746665B2 (en) Methods and apparatus for classifying an artifact in a specimen
CA2976769C (en) Model-based methods and apparatus for classifying an interferent in specimens
US11035870B2 (en) Systems, methods and apparatus for identifying a specimen container cap
US11650197B2 (en) Methods and apparatus adapted to quantify a specimen from multiple lateral views
US11042788B2 (en) Methods and apparatus adapted to identify a specimen container from multiple lateral views
US11022620B2 (en) Methods, apparatus, and quality check modules for detecting hemolysis, icterus, lipemia, or normality of a specimen
US11538159B2 (en) Methods and apparatus for label compensation during specimen characterization
JP6865776B2 (ja) 深層学習を用いるコンピュータビジョニングを使用したデジタル品質管理
JP7234502B2 (ja) 方法、装置、及びプログラム
WO2022244075A1 (ja) 検査システム
US20240169517A1 (en) Methods and apparatus for automated specimen characterization using diagnostic analysis system with continuous performance based training
JP7359297B2 (ja) 検査システム
JP2021003929A (ja) 学習用データ生成装置及び物体検知装置
WO2023047542A1 (ja) 学習装置
WO2023175943A1 (ja) 異物検査装置
US20240168006A1 (en) Methods and apparatus for hashing and retrieval of training images used in hiln determinations of specimens in automated diagnostic analysis systems
US11548729B1 (en) Recycling system with discrete conveyor bins for improved accuracy
WO2024079857A1 (ja) 検査システム
WO2020144881A1 (ja) 検品支援方法、及び検品支援システム
WO2023230024A1 (en) Methods and apparatus for determining a viewpoint for inspecting a sample within a sample container

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21940695

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023522022

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21940695

Country of ref document: EP

Kind code of ref document: A1