WO2022124316A1 - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- WO2022124316A1 WO2022124316A1 PCT/JP2021/045008 JP2021045008W WO2022124316A1 WO 2022124316 A1 WO2022124316 A1 WO 2022124316A1 JP 2021045008 W JP2021045008 W JP 2021045008W WO 2022124316 A1 WO2022124316 A1 WO 2022124316A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image data
- model
- output
- result
- information processing
- Prior art date
Links
- 230000010365 information processing Effects 0.000 title claims description 95
- 230000002950 deficient Effects 0.000 claims abstract description 120
- 238000012545 processing Methods 0.000 claims description 60
- 230000006870 function Effects 0.000 claims description 21
- 238000011156 evaluation Methods 0.000 claims description 20
- 238000003672 processing method Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 abstract description 27
- 238000003860 storage Methods 0.000 abstract description 19
- 238000004519 manufacturing process Methods 0.000 description 43
- 238000000034 method Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 21
- 238000012800 visualization Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000007689 inspection Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 244000144972 livestock Species 0.000 description 3
- 230000001681 protective effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241000287828 Gallus gallus Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 235000000332 black box Nutrition 0.000 description 2
- 244000085682 black box Species 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241001672694 Citrus reticulata Species 0.000 description 1
- 244000141359 Malus pumila Species 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/04—Sorting according to size
- B07C5/10—Sorting according to size measured by light-responsive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
Definitions
- the present invention relates to an information processing device.
- image data captured by a camera is sent to a cloud server via a network, and image data is selected by an AI model on the cloud server (see, for example, Patent Document 1).
- the information processing apparatus is A model holding means for holding a model that inputs image data about an article and outputs a predetermined processing result for the article, and An image acquisition means for acquiring image data related to an article to be processed as image data to be sorted, and an image acquisition means.
- a determination means for determining whether or not the predetermined processing result output from the model as a result of inputting the processing target image data into the model satisfies a predetermined condition. When the determination means determines that the predetermined condition is satisfied, the image data to be processed is output to the outside together with the determination result, and when the determination means determines that the predetermined condition is not satisfied, only the determination result is obtained.
- An output control means that executes control to output the data to the outside, To prepare for.
- data linkage can be performed by transmitting the data of the goods acquired at the production site to the outside, for example, the administrator terminal or the server installed at the place of production control using the network.
- the data mainly transmitted to the network is text data indicating a normal product, so the network is compared with sending the image data of each article each time. The amount of data flowing to the network is reduced, and the load and usage of communication resources can be reduced.
- the machine learning of the AI model can be accelerated. As a result, it is possible to reduce the consumption of communication resources, reduce the cost, and further improve the sorting accuracy while linking data between different locations using the network.
- the information processing method and program corresponding to the information processing apparatus of one aspect of the present invention are also provided as the information processing method and program of one aspect of the present invention.
- the present invention it is possible to reduce the consumption of communication resources while linking data between different locations using a network, reduce costs, and further improve sorting accuracy.
- FIG. 1 It is a functional block diagram which shows an example of the functional configuration of an edge device, a server, and an administrator terminal in the information processing system of one Embodiment which concerns on this invention. It is a block diagram which shows the hardware configuration of the server in the information processing system of FIG. It is a functional block diagram which shows an example of the functional configuration of an edge device, a server, and an administrator terminal among the information processing systems of FIGS. 1 and 2. It is a flowchart which shows the operation of the information processing system of FIGS. 1 to 3.
- FIG. It is a figure which shows the real-time determination screen which is displayed by accessing the My Page of a server from an administrator terminal. It is a figure for demonstrating the flow of a series of processing of this information processing system.
- FIG. 1 is a diagram showing a configuration example of an information processing system including an edge device, a server, and an administrator terminal according to an embodiment of the present invention.
- FIG. 2 is a block diagram showing a hardware configuration of an edge device in the information processing system of FIG.
- FIG. 3 is a functional block diagram showing an example of the functional configuration of an edge device, a server, and an administrator terminal among the information processing systems of FIGS. 1 and 2.
- an edge device 1, a server 2, and an administrator terminal 3 are connected to each other via a network N such as the Internet.
- This information processing system is configured so that information processing devices such as an edge device 1 having a camera 22, a server 2, and an administrator terminal 3 communicate with each other.
- the camera 22 is positioned so as to take an image when, for example, an article to be processed (for example, products T1 to Tn to be sorted) transported in a certain direction A on a production line L at a manufacturing site reaches a predetermined position. It is installed with the optical axis facing. The camera 22 sequentially captures images of the products T1 to Tn and the like to be sorted one by one, and outputs the image data obtained by imaging the images.
- the image includes a moving image and a still image, and the moving image means a plurality of unit image groups arranged in chronological order.
- the unit image includes, for example, an image of a field or a frame. In the following example, for convenience of explanation, it is assumed that the still image data including the article to be processed as the subject is output from the camera 22 as image data.
- the edge device 1 performs predetermined processing on each of the image data (image data including each of the products T1 to Tn and the like in the subject) sequentially output from the camera 22 using the AI model, and the result of the processing.
- the predetermined process includes, for example, a sorting process.
- the sorting process is a process of sorting each of the products T1 to Tn transported in the fixed direction A on the production line L from the image data captured by the camera 22, for example, as a normal product or a defective product.
- As the output information of the sorting result for example, only the text data of OK (normal product) or the set of the text data of NG (defective product) and the image data (image data including the defective product in the subject) is output. Is.
- the AI model is a learning model that has been machine-learned to output predetermined output information when input information such as image data is input. Specifically, for example, in the AI model of the present embodiment, when each of the image data (image data including each of the products T1 to Tn and the like is included in the subject) sequentially input from the camera 22, the products T1 to Tn are input. It is a model that outputs the selection result for each of the above. That is, the process of inputting image data into the AI model and obtaining the output from the AI model is the sorting process.
- the first type is a result that the product Tk (k is an arbitrary integer value such as 1 to n) is a defective product.
- the image data including the product Tk as the subject is transmitted to the server 2 together with the fact that the product Tk is a defective product.
- the second type is the result that the product Tk is a normal product. In the case of the second type, as a result of the sorting process, only the fact that the product Tk is a normal product is transmitted to the server 2.
- the server 2 manages the edge device 1 and the administrator terminal 3 and manages the information of the products T1 to Tn by communicating with the edge device 1 and the administrator terminal 3. Based on the selection result received from the edge device 1, the server 2 performs alert notification to the administrator terminal 3 (when the selection result is the first type), visualization of the selection result, re-learning of the AI model, and the like. ..
- the server 2 is used as a cloud service on the network N to provide, for example, SaaS (Software as a Service) or the like.
- the manager terminal 3 is an information processing device operated by, for example, a manager of a manufacturing management department at a place different from the manufacturing site of the products T1 to Tn.
- Other servers and administrator terminals have the same hardware configuration as the edge device 1, although not shown.
- the example of the sorting process shown here is an example, and it is sufficient to adopt the AI model 31 that outputs predetermined output information based on the input information. That is, the output information of the AI model 31 is limited to only two types of information, that is, a defective product and a non-defective product (normal product) in this example, but the output information is not particularly limited to this, and for example, the reliability is 80% or more. It may be a graded product (three or more types) such as a product having a reliability of less than 80% and a reliability of more than 60%, and a product having a reliability of 60% or less.
- the AI model 31 inputs image data including the product Tk as a subject, the product Tk is classified into M types in advance (M is an arbitrary integer value of 2 or more, and is 2 in this example). Anything may be used as long as it is selected into one of the categories and the selection result is output.
- M is an arbitrary integer value of 2 or more, and is 2 in this example. Anything may be used as long as it is selected into one of the categories and the selection result is output.
- the information processing system uses the AI model 31 to generate N types of image data of one or more products T1 to Tn and the like captured by the camera 22 in the edge device 1 (in this example, the category of defective products and the category of normal products). Sort into one of the two categories).
- the image data is sorted into the category of normal products occupying most of the products T1 to Tn etc. transported on the production line L, it means that the image data is normal products. Only the indicated text data (for example, OK) is transmitted from the edge device 1 to the server 2 on the network N.
- OK the indicated text data
- the image data when the image data is sorted into the category of defective products, it means that the image data and the product included in the image data as a subject (for example, the product T2 in the example of FIG. 1) are defective products.
- the indicated text data (for example, NG or the like) is transmitted from the edge device 1 to the server 2 on the network N.
- the image data received by the server 2 is used for re-learning the AI model 61 held by the server 2.
- image data is automatically collected for learning, and by re-learning the AI model 61, the determination ability can be improved and the selection accuracy can be improved.
- the AI model 31 learns the image data of many NG products, and it is difficult to improve the sorting accuracy.
- the mechanism of the present embodiment only the image data selected under the predetermined conditions are collected more and more in the server 2, so that the AI model 61 is made to relearn using the collected image data in the server 2. And the AI model 61 gets smarter and smarter. By transferring the learned AI model 61 from the server 2 to the edge device 1 at the manufacturing site and using it as the AI model 31 for sorting articles, the accuracy of sorting articles can be improved.
- the server 2 visualizes the received selection result data (data including normal products and defective products).
- the administrator can confirm when and where the abnormality occurred on the administrator terminal 3 or the like, so that it is possible to prevent the AI from becoming a blackbox.
- the server 2 outputs an alert to the administrator terminal 3 or the like when a defective product is detected by receiving the determination result from the edge device 1.
- the administrator who operates the administrator terminal 3 can confirm that the defective product has been detected without going to the site.
- the cooperation between the manufacturing site (the place where the edge device 1 is arranged) and the production control department (the department to which the manager belongs) can be further strengthened while being remote.
- an alert may be output from the edge device 1 to the PLC (Programmable Logical Controller) at the manufacturing site. In this case, it is possible to quickly respond to defective products at the manufacturing site.
- PLC Programmable Logical Controller
- FIG. 3 is a block diagram showing the hardware configuration of the edge device 1 in the information processing system of FIG.
- the edge device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an output unit 16, and an input unit 17.
- a storage unit 18, a communication unit 19, and a drive 20 are provided.
- the CPU 11 executes various processes according to the program recorded in the ROM 12 or the program loaded from the storage unit 18 into the RAM 13. Data and the like necessary for the CPU 11 to execute various processes are also appropriately stored in the RAM 13.
- the CPU 11, ROM 12 and RAM 13 are connected to each other via the bus 14.
- An input / output interface 15 is also connected to the bus 14.
- An output unit 16, an input unit 17, a storage unit 18, a communication unit 19, a drive 20, and a camera 22 are connected to the input / output interface 15.
- the output unit 16 is composed of a display, a speaker, and the like, and outputs various information as images and sounds.
- the input unit 17 is composed of a keyboard, a mouse, and the like, and inputs various information.
- the camera 22 is arranged at a predetermined position on the production line L (see FIG. 3) where, for example, the products T1 to Tn and the like are manufactured, and the subject includes each of the products T1 to Tn flowing on the production line. Take an image.
- the storage unit 18 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various data.
- the communication unit 19 communicates with other devices (server 2, administrator terminal 3, etc. in the example of FIG. 1) via the network N including the Internet.
- MQTT communication is used as the communication protocol in the communication unit 19. Since MQTT communication is lighter in processing than general HTTP communication, for example, even when a large number of edge device 1 communication lines are bundled and connected in large numbers in order to monitor a large number of production lines, a large number of edge devices 1 are used. Can be operated stably.
- a removable media 21 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 20.
- the program read from the removable media 21 by the drive 20 is installed in the storage unit 18 as needed. Further, the removable media 21 can also store various data stored in the storage unit 18 in the same manner as the storage unit 18.
- Information processing devices such as the other server 2 and the administrator terminal 3 also have the same hardware configuration as the edge device 1.
- the server 2 and the administrator terminal 3 have basically the same configuration as the hardware configuration of the edge device 1 shown in FIG. Although not shown in FIG. 2, in FIG. 3, a part of the hardware configuration of the server 2 is shown by a CPU 51, a storage unit 58, a communication unit 59, and the like.
- the browsing control unit 101 functions when executing a process.
- the browsing control unit 101 accesses the server 2 and displays a member's My Page or the like on the screen. This allows the administrator to browse My Page.
- FIG. 3 is a functional block diagram showing an example of the functional configuration of an edge device, a server, and an administrator terminal in the information processing system of FIG. 2.
- the AI model 31 is held (stored) in one area of the storage unit 18 of the edge device 1 shown in FIG.
- the AI model 31 discriminates whether each image data such as the products T1 to Tn imaged by the camera 22 belongs to the normal product category or the defective product category, and outputs the identification result output information (normal).
- Product category or defective product category is output. That is, the AI model 31 outputs the category to which the article belongs among the plurality of categories as the processing result of the input image data.
- the image acquisition unit 41, the determination unit 42, and the output control unit 43 function in the CPU 11 of the edge device 1.
- the image acquisition unit 41 sequentially acquires image data of each of the products T1 to Tn imaged by the camera 22.
- the determination unit 42 inputs each image data acquired by the image acquisition unit 41 into the AI model 31, determines whether or not the selection result output from the AI model 31 satisfies a predetermined condition, and determines the determination result.
- the information corresponding to the above is passed to the output control unit 43.
- the determination unit 42 determines whether or not the selection result satisfies the predetermined condition by using the condition that it belongs to a predetermined category (for example, a defective product category) as a predetermined condition. That is, in the above example, the determination unit 42 causes the AI model 31 to input image data including the product Tk in the subject.
- the determination unit 42 determines that the predetermined condition is satisfied.
- the predetermined condition is not satisfied.
- the output control unit 43 executes control to transmit the information of the determination result of the determination unit 42 to the server 2. That is, when the output control unit 43 determines that a predetermined condition is satisfied (for example, the product T2 is a defective product) by the determination unit 42, the output control unit 43 inputs a defective product (for example, the product T2, etc.) together with the text data "NG" to that effect. The control to output the image data included in the subject to the server 2 as the information of the determination result is executed. On the other hand, when the determination unit 42 determines that the predetermined condition is not satisfied (for example, the product T1 or the like is a normal product), the output control unit 43 determines only the text data "OK" to that effect as the information of the determination result. The control to output to the server 2 is executed.
- a predetermined condition for example, the product T2 is a defective product
- the output control unit 43 inputs a defective product (for example, the product T2, etc.) together with the text data "NG" to that effect.
- transmission information including other data is transmitted to the server 2 together with the above-mentioned determination result information.
- the output control unit 43 can identify the product T1 or the like together with the determination result information such as text data such as “OK”. For example, it is transmitted together with identification information (ID: Identity) of the product T1 or the like.
- ID Identification
- the output control unit 43 may obtain text data such as "NG" and image data including the product T2 as a subject. The set is transmitted as the determination result information together with the determination result information and the product T2 identifiable information, for example, the identification information (ID) of the product T2.
- the destination of the determination result information is not limited to the server 2, and may be sent to another destination.
- the output control unit 43 executes control to upload the output information selected by the AI model 31 to the storage location. do.
- a database such as an AI model 61 and a selection information DB 62 is provided in one area of the storage unit 58 of the server 2.
- the AI model 61 is a trained model acquired by an algorithm such as, for example, a Neural Network or a Deep Neural Network, and is learned, relearned, and updated by a learning unit 73 described later.
- the AI model 61 is transferred from the server 2 to the edge device 1 and deployed, and is utilized as the AI model 31 for sorting processing in the edge device 1.
- the AI model 61 of the server 2 is a learning model machine-learned to output predetermined output information when input information such as image data is input, and when the knowledge is improved by re-learning, the AI model 61 is predetermined. It is transferred to the edge device 1 at the timing. Specifically, the AI model 61 can be learned based on the image data belonging to the category of defective products to be sorted.
- the AI model 61 has the same function as the AI model 31, and when the image data to be sorted is input, it identifies whether it belongs to the normal product category or the defective product category, and counts the number of each identified. Then, the output information of the identification result (normal product category or defective product category) is output.
- the selection information DB 62 contains information on the determination result sent from the edge device 1, for example, text data of "OK" indicating a normal product if it indicates a normal product, and an ID of the product selected as a normal product. Corresponds to and is stored as selection information. In addition, since the determination result information includes a time stamp or the like indicating the determination time, this is also stored in association with the ID of the product. If the determination result information sent from the edge device 1 indicates, for example, an unknown product or a defective product, the image data selected as an unknown product or a defective product and the image data thereof are unknown products or non-defective products.
- the text data of "NG" indicating that the product is a non-defective product or the probability value indicating the probability of being a defective product and the ID of the product selected as an unknown product or a defective product correspond to each other in the selection information DB 62 as selection information. It will be remembered.
- the determination result information includes a time stamp indicating the determination time (detection time of non-defective product, defective product, or unknown product), this is also stored in the selection information DB 62 in association with the product ID. It will be remembered.
- the presentation unit 71 When the process for realizing this service is executed in the server 2 of the information processing system, the presentation unit 71, the learning unit 73, the model generator 72, and the model providing unit 74 function in the CPU 51 of the server 2.
- the presentation unit 71 opens a service site to members (for example, companies that manufacture products T1 to Tn) who request the provision of services related to product selection.
- the service site provides members with a membership page. On the member page, the member can view the information of the selection result of the image data of the article uploaded from the edge device 1 to the server 2 from the information processing device, for example, the administrator terminal 3.
- the presentation unit 71 includes a visualization unit 81 and an alert unit 82.
- the presentation unit 71 acquires information on the selection result uploaded from the administrator terminal 3, counts and visualizes the number of each of the identified normal product and defective product, and outputs an alert.
- the visualization unit 81 generates information about the article to be sorted by using the image data and the sorting result, and presents it to another information processing device (for example, the administrator terminal 3 or the like).
- the visualization unit 81 outputs information on the product T2 of the selection result information (normal product OK text data, defective product image data, NG text data, etc.) output from the edge device 1. , Output to the real-time judgment screen 111 (see FIG. 6) of the member's My Page and visualize it.
- the alert unit 82 outputs an alert based on the text data of NG of the defective product among the information about the product T2 obtained from the edge device 1. Specifically, the alert unit 82 detects defective products by displaying alarm information indicating that defective products have been detected, for example, on the management screen (see FIG. 6) of the member's My Page or the administrator terminal 3. Notify the administrator that it has been done.
- the model generator 72 creates an AI model 61 and stores it in the storage unit 58. Specifically, the model generator 72 adopts a general-purpose model X (see FIG. 6) including an object detection algorithm such as YOLO and an image recognition algorithm such as Resnet and VGG as a machine learning model, and is general-purpose. It is assumed that the sample image data of the defective product is input to the model X to be trained.
- a general-purpose model X see FIG. 6
- an object detection algorithm such as YOLO
- an image recognition algorithm such as Resnet and VGG
- the learning unit 73 inputs new image data into the AI model 61 to relearn the AI model 61. Specifically, the learning unit 73 relearns the AI model 61 using the image data output from the edge device 1 and the text data of the selection result.
- the model providing unit 74 provides the re-learned AI model 61 to the edge device 1. Specifically, the model providing unit 74 transmits the AI model 61 relearned by the learning unit 73 to the edge device 1 and deploys it, so that the AI model 31 of the edge device 1 is always maintained in a high discriminating ability. do.
- the AI model 61 trained by the server 2 is deployed to the edge device 1, and the image data is selected by the AI model 31 in the edge device 1 and selected as a normal product.
- the text data indicating the normal product is sent to the server 2, and when it is selected as a defective product, the text data indicating the defective product and the image data are transmitted to the server 2, so that the data flows to the network N.
- the amount of data is reduced, the use of communication resources can be suppressed, and costs can be reduced.
- the image data received from the edge device 1 to the server 2 is used for re-learning the AI model 61 held by the server 2, so that the image data is automatically used for learning. It will be collected and learning efficiency will improve. Further, by deploying the retrained AI model 61 to the edge device 1, the sorting ability of the articles in the edge device 1 can be improved and the sorting accuracy can be improved.
- the administrator can confirm that the defective product has been detected without going to the site. That is, the cooperation between the manufacturing site and the production control department can be strengthened while remaining remote. As a result, it is possible to suppress the consumption of communication resources, reduce the cost, and further improve the sorting accuracy while coordinating between different places by using the network N.
- FIG. 4 is a flowchart showing the operation of the information processing system of the embodiment.
- the edge device 1 is an AI model 31 that inputs image data related to the products T1 to Tn to be sorted and outputs the sorting result for the products T1 to Tn to be sorted. Hold on.
- the model providing unit 74 of the server 2 transfers the AI model 61 held in the server 2 to the edge device 1 installed at the manufacturing site and holds the AI model 61 in the edge device 1.
- the products T1 to Tn to be sorted are transported to the manufacturing line L, and when the products T1 to Tn enter the shooting range of the camera 22 in order, the camera is in the order of the product T1, the product T2, and the product T3. Images are taken by 22 and each image data is sequentially input to the edge device.
- step S12 in the edge device 1, the image acquisition unit 41 acquires image data related to the products T1 to Tn to be sorted as the image data to be processed. Specifically, the image acquisition unit 41 acquires image data in which the products T1 to Tn transported on the production line L at the production site are sequentially captured by the camera 22.
- step S13 the determination unit 42 inputs the image data acquired by the image acquisition unit 41 into the AI model 31, and the selection result output from the AI model 31 by the input of the image data is a predetermined condition (for example, not). It is determined whether or not the condition (condition that it belongs to the non-defective product category) is satisfied.
- step S14 the output control unit 43 executes output control of the determination result information of the determination unit 42. Specifically, when the output control unit 43 is determined to satisfy a predetermined condition (for example, a condition that it belongs to the defective product category), the product is regarded as a defective product together with the text data "NG" indicating the determination result. For example, the image data of the product T2 or the like is output to the outside. Further, when it is determined that the predetermined condition (for example, the condition of belonging to the defective product category) is not satisfied, the output control unit 43 executes control to output only the text data "OK" of the determination result to the outside.
- the outside is an information processing device other than the edge device 1, for example, a server 2, an administrator terminal 3, a PLC installed at a manufacturing site, and the like.
- the visualization unit 81 visualizes the determination result information and displays the figure on the administrator's My Page or the screen of the administrator terminal 3.
- the real-time determination screen 111 shown in 5 is displayed.
- the selection result by the AI model 31 and the result of the NG determination by the determination unit 42 can be displayed in real time.
- information on the result of selecting the products T1, T2 ..., Tn is displayed in the form of icons H1, H2 ..., Hn, etc. corresponding to the products T1, T2 ..., Tn. Will be done.
- a check mark 112 is displayed on the icon H1, and the administrator can see at a glance that the icon H1 is a normal product "OK".
- An exclamation mark 113 is displayed on the icon H2, and when the administrator looks at the icon H2 at a glance, it can be seen that it is a caution item.
- An X mark 114 is displayed on the icon H3, and when the administrator looks at the icon H3 at a glance, it can be seen that the product is defective.
- FIG. 6 is a diagram for explaining a series of processing flows of the information processing system.
- the model generator 72 of the server 2 introduces the general-purpose model X and the selection target data such as sample image data of defective products of the products T1 to Tn, and the product T1.
- the selection target data such as sample image data of defective products of the products T1 to Tn, and the product T1.
- an AI model 61 for selecting defective products from Tn To create an AI model 61 for selecting defective products from Tn.
- step 22 the model generator 72 compresses the created AI model 61 and holds it in the server 2.
- step 23 the AI model 61 held in the server 2 is transferred to the edge device 1 and deployed.
- the AI model 31 selects the category of the image data of the respective products T1 to Tn obtained by imaging the products T1 to Tn conveyed on the production line L by the camera 22. do. Then, it is determined whether or not the selected category is a defective product depending on whether or not it is a predetermined category, and the information of the determination result is output to the PLC at the site and uploaded to the server 2 and stored in the selection information DB 62. If the image data is determined to be a defective product, the image data and text data indicating that the product is defective are uploaded to the server 2, and if the image data is determined to be a normal product, the product is normal. Only the indicated text data is uploaded to the server 2.
- step 26 in the server 2, the visualization unit 81 (see FIG. 3) generates summary information explaining the reason for the determination based on the information of the determination result, and displays (outputs) it on the member management screen 121 or the like. ..
- the alert unit 82 confirms the information of the determination result read from the selection information DB 62, and the determination result information includes data indicating a defective product. , Notifies (outputs) an alert to another information processing device (for example, administrator terminal 3 or the like).
- the specific means of the alert may be, for example, e-mail or the like, and a display indicating NG may be displayed on the real-time determination screen 111 (FIG. 5 or the like) of the administrator's My Page.
- step 28 the learning unit 73 (see FIG. 3) inputs the image data of the defective product stored in the selection information DB 62 into the AI model 61 and causes re-learning.
- the model providing unit 74 transfers the trained AI model 61 to the edge device 1 and deploys it at a predetermined timing.
- the predetermined timing may be, for example, when a transfer request is received from the edge device 1, or at regular intervals, or the like.
- FIG. 7 is a diagram showing an example of a case where the information processing system is applied to a check of inspection work.
- FIG. 8 is a diagram showing an example of a case where the information processing system is applied to a check of a worker's protective equipment.
- FIG. 9 is a diagram showing an example of a case where the information processing system is applied to an alert in a dangerous area.
- FIG. 10 is a diagram showing an example of a case where this information processing system is applied to check the life and death of livestock.
- FIG. 11 is a diagram showing an example of a case where the information processing system is applied to the observation of time change.
- FIG. 12 is a diagram showing an example of a case where the information processing system is used according to the demands of a company.
- the camera 22 images an article to be sorted placed on the table 221, for example, one or more products such as bread 222, and sorts defective products contained in the products. , May be applied to inspection work such as inspecting each product for foreign matter.
- the camera 22 takes an image of the worker, checks the equipment of the worker 231 (for example, protective equipment such as a helmet 232 and work shoes 233), and confirms whether or not he / she is wearing a proper one. It may be applied to the case to be checked.
- equipment of the worker 231 for example, protective equipment such as a helmet 232 and work shoes 233
- the dangerous area is imaged by the camera 22 to monitor the entry of the person 241 into the dangerous area, the change of the dangerous substance 242, etc., and when the person 241 enters the dangerous area. It may be applied to the case of outputting an alert when a change of the dangerous goods 242 occurs.
- the camera 22 may be applied to a case where a livestock (for example, chicken 251 or the like) kept in a certain area is imaged to check the life or death of the chicken 251.
- a livestock for example, chicken 251 or the like
- the camera 22 takes an image of an article to be monitored (for example, one or more tanks 261 containing liquid), observes the time change of the color of the liquid in each tank 261, and all of them. It may be applied to the case of outputting an alert when the color of the liquid in the tank 261 changes to a constant color.
- an article to be monitored for example, one or more tanks 261 containing liquid
- the target 271 to be imaged by the camera 22 may be determined according to the request of the company, and the image data obtained by imaging the target 271 may be customized so that the company can utilize it.
- the AI model in which the image data of the products T1 to Tn are sequentially input to the edge device 1 and the selection result of the products T1 to Tn is output. 31 is retained, and it is determined whether or not the sorting result output from the AI model 31 by inputting the image data satisfies the sorting condition for sorting as a defective product, for example.
- the image data of, for example, the product T2 which is regarded as a defective product is output to the server 2 together with the text data "NG" indicating the determination result, and the product is regarded as a defective product. If it is determined that the selection conditions are not satisfied, only the text data "OK" of the determination result is output to the server 2.
- the remote administrator can confirm the manufacturing status of the products T1 to Tn at the manufacturing site. can.
- the image data is selected as a normal product occupying the majority of the products T1 to Tn, the image data is not sent to the server 2, so that the load on the network N is reduced and the consumption of communication resources is reduced. be able to.
- the knowledge of the AI model 61 can be improved by inputting the image data of the defective product automatically collected from the edge device 1 into the AI model 61 and re-learning.
- the trained AI model 61 By transferring the trained AI model 61 to the edge device 1 and holding it as the AI model 31, it is possible to improve the sorting accuracy of the articles in the edge device 1.
- FIG. 13 is a diagram showing an example of the functional configuration of the server of the information processing system of the second embodiment.
- FIG. 14 is a diagram showing an example of a home screen displayed on the administrator terminal of the information processing system of FIG. 13.
- FIG. 15 is a diagram showing another example of the home screen of FIG.
- FIG. 16 is a diagram showing an example of an image classification detail screen displayed by transitioning from the home screen of FIG.
- FIG. 17 is a diagram showing an example of an image classification list screen displayed by transitioning from the image classification detail screen of FIG.
- the same reference numerals are given to the same functional configurations as those of the server shown in FIG.
- the AI model 31 of the edge device 1 is configured to further study and improve the sorting accuracy of an ambiguous article that is difficult to determine whether it is a non-defective product or a defective product.
- the server 2 of the second embodiment has an evaluation reception unit 75 and a GUI control unit 76. Further, the edge device 1 includes a determination unit 42 (see FIG. 3) and an output control unit 43 (see FIG. 3).
- the plurality of categories are the first category indicating that the product is non-defective, the second category indicating that the product is defective, and the third category of unknown products indicating that it is difficult to distinguish between non-defective products and defective products.
- the third category is, for example, a classification in which the probability of defective products is about 50% to 70% and the quality judgment is unknown. On the contrary, it is the same even if the probability of a non-defective product is about 50% to 30%.
- the determination unit 42 of the edge device 1 determines whether or not the predetermined condition is satisfied by using the first condition that the edge device 1 belongs to the second category (defective product) as a predetermined condition. As a result, only the image data to be processed that satisfies the first condition (the condition that it belongs to the second category (defective product)) is transmitted to the server 2, and the consumption of communication resources can be suppressed.
- the determination unit 42 determines whether or not the predetermined condition is satisfied by using the second condition that the predetermined condition belongs to the third category (for example, pass / fail determination unknown) in addition to the first condition.
- the output control unit 43 When the determination unit 42 determines that the first condition is satisfied, the output control unit 43 outputs the image data to be processed to the outside (for example, server 2 or the like) together with the information of the second category (defective product) as the determination result. ..
- the output control unit 43 externally outputs the image data to be processed together with the information (classification label of unknown product) of the third category (for example, unknown product) as the determination result. Output to (for example, server 2 etc.).
- the output control unit 43 When the determination unit 42 determines that neither the first condition nor the second condition is satisfied, the output control unit 43 outputs only the determination result to the outside (for example, the server 2 or the like).
- the image data to be processed is output to the outside (administrator terminal 3 via the server 2) together with the information of the third category (for example, unknown product) as the determination result. Therefore, the processing target image data is classified in detail by the eyes of a person such as an administrator, the classification label of the processing target image data is reattached, and the AI model 61 is trained, and the processing target image data is trained by the edge device 1. By reflecting it in the AI model 31, it is possible to reduce erroneous determination by the AI model 31 and improve the sorting accuracy.
- the evaluation reception unit 75 of the server 2 accepts the user's evaluation of the image data to be processed and the processing result. Specifically, the evaluation receiving unit 75 receives the processing target image data (image data with a classification label) and the processing result transmitted from the edge device 1 and provides them to the administrator terminal 3. Then, when the classification label of the image data to be processed is changed by the administrator on the side of the administrator terminal 3, the evaluation receiving unit 75 receives the image data of the changed classification label.
- the learning unit 73 further relearns the AI model by using the user's evaluation in addition to the image data to be processed and the processing result.
- the user's evaluation is feedback of image data (teacher data) for which the classification label has been reattached and the quality has been identified because the recognition by the AI model was incorrect.
- image data teacher data
- the AI model by re-learning the AI model using the user's evaluation in addition to the image data to be processed and the processing result, the image data that was an ambiguous judgment result is given a label of correct classification. This makes it possible to improve the sorting accuracy of good products and defective products.
- the GUI control unit 76 provides the administrator terminal 3 operated by the user with a screen which is a user interface for causing the user to perform operations for exerting the respective functions of the learning unit 73 and the model providing unit 74. Perform control. Specifically, the GUI control unit 76 provides and displays the home screen 300 shown in FIG. 14 on the administrator terminal 3.
- the home screen 300 shown in FIG. 14 is a screen for the administrator to view the image data selected by the edge device 1, and is displayed on the administrator terminal 3.
- the home screen 300 is provided with a menu column 301 and a display column 302.
- the name "A device" of the edge device 1 the remaining number display area 303 of the unclassified image data acquired from the edge device 1, and the screen are image-classified in order to classify the unclassified image data.
- the numerical value for each article, the type of the article, the area 307 for displaying the aggregated status of the data in the graph, and the like are arranged.
- the home screen 310 shown in FIG. 15 is displayed.
- the four edge devices 1 of the A device, the B device, the C device, and the D device are arranged at the article sorting site.
- areas 311 to 314 are divided for each device, and the same buttons 31315 to 318 as the buttons shown in FIG. 14 are arranged in the areas 311 to 314 for each device. Operation is possible.
- the image classification detail screen 320 (see FIG. 16) is displayed.
- the image display area 321 and the buttons 322a to 322d are arranged in the display area 302 of the image classification detail screen 320.
- the button 322a is a button for adding a classification label such as "NG1" to the image data.
- "NG1" is a classification of defective products such as "with scratches”.
- the button 322b is a button for adding a classification label such as "NG2" to the image data.
- “NG2” is a classification different from “apples” such as “mandarin oranges”.
- the button 322c is a button for adding a classification label such as "OK” to the image data.
- "OK” is classified into, for example, "good product”.
- the button 322d is a button for adding a classification label such as "WARNING” to the image data.
- “WARNING” is classified into, for example, “items requiring attention” other than “NG1", “NG2", and "OK”.
- the narrowing-down button 327 reads out the target image data by a selection operation of the class name button in the classification class name selection field 324 and a click operation after the period is specified in the search target period selection field 326.
- the CSV output button 328 is a button for CSV output of the metadata of each image data, and when clicked, a CSV file of the metadata of each image data is generated and output.
- the button 330 for returning to the list page is a button for transitioning the screen to the image classification list screen 330 shown in FIG. Similar to FIG. 16, the image classification list screen 330 shown in FIG. 17 is provided with a menu column 301 and a display column 302. In the display field 302, the classified image data 322 is displayed in a list.
- the classification class name selection field 324 In the right area of the display field 302, as in FIG. 16, the classification class name selection field 324, the registrant name selection field 325, the search target period selection field 326, the narrowing down button 327, the CSV output button 328, the learning start button 329, and so on. Buttons 330 and the like for returning to the list page are arranged. That is, the image classification list screen 330 is a screen for the administrator to view the classification result.
- one of the unclassified image data is displayed in the image display area 321 of the image classification detail screen 320 shown in FIG.
- one of the buttons 322a to 322d is click-operated to create a new click-operated button.
- the evaluation is received by the evaluation reception unit 75, a new classification label is attached to the image data, and the image data is classified.
- the next unclassified image data is displayed in the image display area 321.
- the unclassified image data is classified, when the learning start button 329 is clicked, the classified image data is input from the evaluation reception unit 75 to the learning unit 73 as teacher data, and the AI model 61 is relearned. Is executed. After the re-learning, the AI model 61 is transferred from the server 2 to the edge device 1, and the AI model 31 of the edge device 1 is updated.
- the home screen 300 (FIG. 14), the home screen 310 (FIG. 15), the image classification detail screen 320 (FIG. 16), and the like described above exhibit the functions of the learning unit 73 and the model providing unit 74, respectively.
- the user can perform the operation for making the image. For example, a user such as an administrator can train the AI model 61 to learn the sample image data to construct the AI model 61, and relearn the constructed AI model 61, using the training data and the test data. You will be able to verify the accuracy.
- Data collection and tuning work for re-learning the AI model 61 is generally difficult, and it is particularly important to collect image data of defective products.
- the image data that is really necessary is the image data of a good product or a defective product that the AI model 31 makes a mistake in the determination, and it is necessary to correctly label the image data and train it.
- defective products that are close to non-defective products for example, image data that is determined to be defective with a 50% probability
- good products that are considered to be specific defects for example, small cracks, chips, scratches, abnormalities in other parts, etc.
- Image data of articles such as manufactured products that are determined to be unknown products may be obtained, and it is important to analyze this in order to improve the sorting accuracy.
- the AI model 31 is not available. Assuming that a probability value that is a good product is output, it is possible by using the probability value.
- the determination unit 42 of the edge device 1 belongs to the third category (thing whose quality is unknown: unknown product) in addition to the first condition that it belongs to the second category (defective product).
- the second condition is used to determine whether or not a predetermined condition is satisfied.
- the unknown product means a product whose quality judgment is unknown, for example, with a probability value of a defective product of about 50% to 70%.
- the probability value may be obtained based on the result of the similarity calculation obtained by comparing the image data of the genuine product with the image data to be processed. About 50% to 70% is an example, and other values may be used, and any ambiguous numerical value that makes it difficult to distinguish between good and bad may be used.
- the determination unit 42 determines that the second condition is satisfied, the image data to be processed is output to the server 2 together with the information of the third category (for example, unknown product) as the determination result.
- the server 2 transmits a third category (for example, an unknown product, etc.) and its processing target image data to the administrator terminal 3, determines the quality of the processing target image data by the eyes of a person such as an administrator, and determines the quality of the processing target image data.
- a third category for example, an unknown product, etc.
- the server 2 transmits a third category (for example, an unknown product, etc.) and its processing target image data to the administrator terminal 3, determines the quality of the processing target image data by the eyes of a person such as an administrator, and determines the quality of the processing target image data.
- the image data uploaded to the server 2 can be stored on the user side. It is possible to classify by tagging (adding a classification label) what is defective or good. In addition, re-learning can be performed on the server 2 using the classified data set. Furthermore, an image classification detail screen 320 (GUI screen) is prepared so that the user can construct and relearn the AI model 61, and accuracy verification can be performed using training data and test data. It is possible to provide a system in which the completed AI model 61 can be remotely mounted on the edge device 1 as it is.
- the user can collect and classify the data necessary for re-learning, and deploy the AI model 61 with improved accuracy to the edge device 1 for use.
- the AI model 61 with improved accuracy to the edge device 1 for use.
- the embodiment to which the present invention is applied may be, for example, as follows.
- the edge device 1 has been described as having the camera 22, but the camera 22 may be a camera connected to the edge device 1, that is, an external camera.
- image data related to the products T1 to Tn and the like are input to the AI model 31 and the selection result for the products T1 to Tn is output, but other models may be used, and the AI model and the selection process may be used. It is not limited to the above, and any model that inputs image data about the article and outputs a predetermined processing result for the article is sufficient.
- the determination unit 42 determines whether or not the condition of belonging to the defective product category is satisfied, but the condition is not limited to such a condition and does not belong to the normal product. It may be present, and the condition settings can be changed in various ways. That is, it may be determined whether or not the predetermined processing result output from the model as a result of inputting the image data to be processed into the model satisfies the predetermined condition.
- the output control unit 43 determines that the condition of belonging to the defective product category is satisfied by the determination unit 42, the image data of the product T2 determined to belong to the defective product together with the NG text data. was output to the outside, and if it was determined that the condition of belonging to the defective product category was not satisfied, the control to output only the OK text data to the outside was executed, but it does not have to be a two-way selection of NG and OK.
- the reliability may be 80% or more, the reliability may be less than 80%, the reliability may be more than 60%, the reliability may be 60% or less, and the like (three or more types) may be used.
- the output control unit 43 outputs the image data to be processed to the outside together with the determination result, and when the determination unit 42 determines that the predetermined condition is not satisfied, the output control unit 43 outputs the image data to be processed to the outside. It is sufficient to execute the control to output only the determination result to the outside.
- the learning function (learning unit 73, selection information DB 62 for storing image data of defective products, etc.) is provided in the server 2, but the learning function is not limited to this example, and the learning function is referred to as the server 2. May be mounted on another information processing device such as a learning device, and the same function may be realized by connecting the server 2 and the learning device via the network N and linking the data.
- each function is independent, so if a service is stopped for some reason, it is possible to deal with it by recovering only a specific function without stopping the entire service.
- one edge device 1 is arranged on one production line L.
- one edge device 1 may be arranged on each of a plurality of production lines.
- the edge devices 1 may be arranged at a plurality of locations on one production line L, respectively. In this case, by assigning an ID (unique identification information) to each of the plurality of edge devices 1, the operating status can be managed for each edge device 1.
- ID unique identification information
- the output control unit 43 of the edge device 1 sets the destination for transmitting the prediction result as output information to the server 2 on the network N or the PLC at the manufacturing site.
- the output control unit 43 may execute control to save the output information in the My Page.
- the server 2 publishes application software (hereinafter referred to as "application”) dedicated to this service on the Internet, downloads the application to the edge device 1 and other information processing devices, and executes the application.
- application application software
- the same function as the shown server 2 can be realized by the edge device 1 and other information processing devices.
- the AI model 31 is held in the edge device 1 and the sorting process is performed.
- the image data captured by the camera 22 or the camera 22 that is the acquisition source of the input information is used.
- the AI model 31 may be incorporated into a device that acquires input information, such as a recording device for recording.
- image data is exemplified as an example of input information to be input to the AI model 31, but other than this, for example, data such as voice, document, table, numerical value, and data other than these may be used as input information.
- data such as voice, document, table, numerical value, and data other than these may be used as input information.
- An alert may be output in cooperation with a buzzer, a lamp, or the like.
- the series of processes described above can be executed by hardware or software.
- the functional configuration of FIG. 3 is merely an example and is not particularly limited. That is, it suffices if the information processing system is equipped with a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block and database is used to realize this function is particularly limited to the example of FIG. Not done.
- the location of the functional block is not particularly limited to FIG. 3, and may be arbitrary.
- the functional block and database of the server 2 may be transferred to the administrator terminal 3.
- one functional block and database may be configured by a single hardware, a single software, or a combination thereof.
- the programs constituting the software are installed on a computer or the like from a network or a recording medium.
- the computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a management server, a general-purpose smartphone, or a personal computer.
- the recording medium including such a program is not only composed of a removable medium (not shown) distributed separately from the device main body in order to provide the program to the service provider SA, but also is preliminarily incorporated in the device main body. It is composed of recording media and the like provided to the service provider SA in this state.
- the steps for describing a program to be recorded on a recording medium are not only processed in chronological order but also in parallel or individually, even if they are not necessarily processed in chronological order. It also includes the processing to be executed.
- the term of the system means an overall device composed of a plurality of devices, a plurality of means, and the like.
- the information processing apparatus to which the present invention is applied can take various embodiments having the following configurations.
- the first information processing apparatus to which the present invention is applied (for example, the edge device 1 in FIG. 3) is Holding a model that holds a model (for example, AI model 31 in FIG. 3) that inputs image data related to an article (for example, products T1 to Tn in FIG. 3) and outputs a predetermined processing result (sorting result) for the article.
- Means for example, the storage unit 18 in FIG. 3) and
- An image acquisition means for example, an image acquisition unit 41 in FIG. 3) for acquiring image data (for example, images of products T1 to Tn in FIG. 3) related to an article to be processed as image data to be sorted.
- a predetermined condition for example, a condition that the image data belongs to the defective product category.
- (Data, etc.) is output to the outside, and when it is determined by the determination means that the predetermined condition (for example, the condition of belonging to the defective product category) is not satisfied, only the determination result (for example, text data such as OK) is externally determined.
- An output control means (for example, an output control unit 43 in FIG. 3) that executes control to output to To prepare for.
- the AI model 61 of the server 2 which is the second information processing device is deployed as the AI model 31 in the edge device 1 which is the first information processing device, and the image is used in the edge device 1 using the AI model 31.
- the data category By selecting the data category, determining whether or not the condition that the selected category is a specific category is satisfied, and controlling the information transmitted to the server 2 according to the determination result, the data category is selected.
- the amount of data flowing from the edge device 1 to the network N by sending only a small amount of image data selected as a defective product to the server 2 without sending the majority of image data selected as a normal product to the server 2. It is possible to reduce the consumption of communication resources and reduce the operating cost. Further, since only the image data of the defective product is automatically collected in the server 2, the AI model 61 is relearned using the image data to improve the recognition knowledge of the AI model 61 one after another. It is possible to improve the sorting accuracy of identifying the defective image from the acquired image of the article.
- network N is used to link different locations (for example, the location of the manufacturing site and the location of the management department), and the transmission capacity of network N, that is, the consumption of communication resources is suppressed to reduce costs, and further selection is performed.
- the accuracy can be improved.
- the model (for example, AI model 31 or the like) has a plurality of categories (normal product, defective product, etc.) as the predetermined processing result (for example, selection result of the product T2) to which the article belongs (for example, non-defective product). Output category) of non-defective products,
- the determination means (for example, the determination unit 42 in FIG. 3) determines whether or not the predetermined condition is satisfied by using the condition that the predetermined condition belongs to a predetermined category (for example, a defective product category). In this way, by determining whether or not to transmit the image data selection result by the AI model 31 under the condition that it belongs to the defective product category, for example, only the defective product image data can be collected by the server 2. can.
- the plurality of categories include a first category indicating that the product is non-defective and a second category indicating that the product is defective.
- the determination means determines whether or not the predetermined condition is satisfied by using the first condition that the predetermined condition belongs to the second category (defective product). As a result, only the image data to be processed belonging to the second category (defective product) is transmitted to the server 2, and the consumption of communication resources can be suppressed.
- the plurality of categories further include a third category (for example, a quality determination unknown with a probability of a defective product of about 50% to 70%, or vice versa) indicating that it is difficult to distinguish between the good product and the defective product.
- the determination means (for example, the determination unit 42 in FIG. 3) uses the second condition that the determination means belongs to the third category (for example, pass / fail determination unknown) in addition to the first condition as the predetermined condition. Determine if the conditions are met and The output control means (for example, the output control unit 43 in FIG. 3) is When the determination means (for example, the determination unit 42 in FIG.
- the processing target image data is output to the outside together with the information of the second category (defective product) as the determination result. death, When the determination means (for example, the determination unit 42 in FIG. 3) determines that the second condition is satisfied, the processing target image data is combined with the information of the third category (for example, pass / fail determination unknown) as the determination result. Output to the outside, When it is determined by the determination means (for example, the determination unit 42 in FIG. 3) that neither the first condition nor the second condition is satisfied, only the determination result is output to the outside. When it is determined that the second condition (condition of belonging to the third category) is satisfied in this way, the processing target image data is externally (for example, FIG.
- the second information processing device (for example, the server 2 in FIG. 3) is Using the processing target image data (for example, image data of a defective product) output from the first information processing device (for example, the edge device 1 in FIG. 3) and the processing result (for example, text data such as NG), the said A learning means for re-learning a model (for example, the AI model 61 in FIG. 3) (for example, the learning unit 73 in FIG. 3) and With a providing means (for example, the model providing unit 74 of FIG. 3) that provides the relearned model (AI model 61 or the like) to the first information processing device (for example, the edge device 1 or the like of FIG. 3). , To prepare for.
- image data for example, image data of defective products acquired from the manufacturing site is relearned in the model (for example, AI model 61, etc.) to enhance the identification knowledge of defective products, and then the information on the manufacturing site. Since it is provided to a processing device (for example, edge device 1 or the like), image data can be sorted by a smart model (for example, AI model 31 or the like) that has been learned in the information processing device (for example, edge device 1 or the like), and the article can be selected. It is possible to improve the accuracy of selecting defective products from among them.
- a processing device for example, edge device 1 or the like
- an evaluation receiving means for example, the evaluation receiving unit 75 of FIG. 13 for receiving the user's evaluation of the processed image data and the processing result.
- the learning means (for example, the learning unit 73 in FIG. 3) relearns the model by using the image data to be processed and the processing result, and further using the evaluation of the user.
- the user's evaluation feedback of the image data (teacher data) that has been reclassified due to incorrect recognition by the AI model
- the learning it is possible to reduce the amount of data whose pass / fail judgment is unknown at the time of sorting and improve the sorting accuracy.
- a user interface for causing the user to perform an operation for exerting the respective functions of the learning means (for example, the learning unit 73 of FIG. 3) and the providing means (for example, the model providing unit 74 of FIG. 3).
- a control means eg, GUI control unit 76, etc. in FIG. 13
- another information processing device for example, the administrator terminal 3 in FIG. 13
- the learning means for example, the learning unit 73 in FIG. 3
- the providing means for example, FIG. 3
- the user himself / herself will be able to perform an operation for exerting each function of the model providing unit (74, etc.).
- the user can construct an AI model from the user interface and relearn the constructed AI model, and can verify the accuracy using the training data and the test data.
- the second information processing device (for example, the server 2 in FIG. 3) is Using the processing target image data (for example, defective image data) and the processing result (for example, text data such as NG) output from the first information processing apparatus (for example, the edge device 1 in FIG. 3), the processing target image data (for example, defective product image data) is used.
- Information about the article to be processed (for example, in addition to the real-time determination screen 111 of FIG. 5, the processing target image data and the processing result itself, an alert when a defective product is detected, etc.) is generated, and another information processing apparatus (for example).
- a presentation means for example, the model providing unit 74 in FIG. 3) presented to the administrator terminal 3 in FIG. Further prepare.
- the manager who exists in a remote place away from the site where the article is placed can check the status of the article at the site, so that business cooperation between different places can be achieved.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
Abstract
Description
また、選別のためのAIモデルの構築に、画像データを十分集める必要があるが、この作業には多くの時間がかかるため、選別精度の向上が遅れる。
さらに、選別対象の画像データが得られる物品は、生産現場に存在する一方、生産管理の場所は生産現場から離れた場所にあることが多いため、遠隔地どうしでネットワークを介して連携を行うことは必須である。
物品に関する画像データを入力して当該物品に対する所定の処理結果を出力するモデルを保持するモデル保持手段と、
処理対象の物品に関する画像データを選別対象画像データとして取得する画像取得手段と、
前記処理対象画像データが前記モデルに入力された結果として当該モデルから出力される前記所定の処理結果が、所定条件を満たすか否かを判定する判定手段と、
前記判定手段により前記所定条件を満たすと判定された場合、その判定結果と共に前記処理対象画像データを外部に出力し、前記判定手段により前記所定条件を満たさないと判定された場合、その判定結果のみを外部に出力する制御を実行する出力制御手段と、
を備える。
これにより、生産現場で取得される物品のデータを、ネットワークを利用して外部、例えば生産管理の場所等に設置される管理者端末やサーバへ送信することでデータ連携を行うことができる。
また、物品の一つとして例えば製造物等を選別する検品業務において、ネットワークに主に送信されるデータは、正常品を示すテキストデータなので、個々の物品の画像データを都度送るのに比べてネットワークに流れるデータ量が削減され、通信リソースの負荷や使用を軽減することができる。
さらに、学習対象の所定の画像データ、例えば製造物を検品した結果、不良品として選別された画像データのみが自動的に収集されるので、AIモデルの機械学習を加速させることができる。
この結果、ネットワークを利用して異なる場所どうしでデータ連携を行いつつ通信リソースの消費を抑えてコストを削減し、さらには選別精度を向上することができる。
本発明の一態様の上記情報処理装置に対応する情報処理方法及びプログラムも、本発明の一態様の情報処理方法及びプログラムとして提供される。
まず、図1乃至図3を参照して情報処理システムの構成について説明する。
図1は、本発明に係る一つの実施の形態のエッジデバイス、サーバ及び管理者端末を含む情報処理システムの構成例を示す図である。
図2は、図1の情報処理システムのうちエッジデバイスのハードウェア構成を示すブロック図である。
図3は、図1及び図2の情報処理システムのうちエッジデバイス、サーバ及び管理者端末の機能的構成の一例を示す機能ブロック図である。
ここで、画像とは、動画及び静止画を含み、動画は、複数の単位画像群が時系列の順に配置されたものをいう。単位画像には、例えばフィールドやフレームの画像が含まれる。なお、以下の例では、説明の便宜上、処理対象の物品を被写体に含む静止画像のデータが、画像データとしてカメラ22から出力されるものとする。
所定の処理は、例えば選別処理等がある。選別処理は、例えばカメラ22により撮像される画像データから、製造ラインL上を一定方向Aへ搬送される製造物T1乃至Tnの夫々を正常品か不良品の何れかに選別する処理である。選別結果の出力情報として例えばOK(正常品)のテキストデータのみか、又はNG(不良品)のテキストデータと画像データ(当該不良品を被写体に含む画像データ)との組を出力する、というものである。
具体的には例えば、本実施形態のAIモデルは、カメラ22から順次入力される画像データ(製造物T1乃至Tn等の夫々を被写体に含む画像データ)の夫々を入力すると、製造物T1乃至Tn等の夫々に対する選別結果を出力するモデルである。即ち、画像データをAIモデルに入力して、当該AIモデルからの出力を得る処理が、選別処理である。
第1の種類は、製造物Tk(kは1乃至n等の任意の整数値)が不良品であるという結果である。第1の種類の場合、選別処理の結果として、製造物Tkが不良品である旨と共に、当該製造物Tkを被写体に含む画像データがサーバ2へ送信される。
これに対して、第2の種類は、製造物Tkが正常品であるという結果である。第2の種類の場合、選別処理の結果として、製造物Tkが正常品である旨のみがサーバ2へ送信される。
サーバ2は、エッジデバイス1から受信される選別結果に基づいて、管理者端末3へのアラート通知(選別結果が第1の種類の場合)、選別結果の可視化、AIモデルの再学習等を行う。
サーバ2は、本実施形態では、ネットワークN上のクラウドサービスとして、例えばSaaS(Software as a Service)等を提供するものとして利用される。
他のサーバや管理者端末は、図示しないがエッジデバイス1と同様のハードウェア構成を有する。
なお、ここで示す選別処理の例は、一例であり、入力情報に基づき所定の出力情報を出力するAIモデル31を採用すれば足りる。すなわち、AIモデル31の出力情報は、本例では不良品か、それ以外(正常品)かという2種類の情報のみとされているが、特にこれに限定されず、例えば信頼度80%以上のもの、信頼度80%未満60%超、信頼度60%以下のもの等といった段階的なもの(3種類以上)であってもよい。
情報処理システムは、カメラ22により撮像される1以上の製造物T1乃至Tn等の夫々の画像データをエッジデバイス1においてAIモデル31によりN種類(本例では、不良品のカテゴリと正常品のカテゴリの2種類)のカテゴリのうち何れかのカテゴリに選別する。
例えば物品を製造する製造現場では、物品の製造過程で不良品をなくすよう努力しているため、NGの製品が発生することは少なく、これに伴ってNGの画像データを集めるのは大変である。
だからこそ、AIモデル31に、多くのNGの製品の画像データを学ばせることも大変であり、選別精度を向上するのは大変なことである。
それが、本実施形態の仕組みを使うことで、所定条件で選別された画像データのみがサーバ2にどんどん集められるので、サーバ2において、集められた画像データを用いてAIモデル61に再学習させると、AIモデル61は、どんどん賢くなる。その学習済みのAIモデル61をサーバ2から製造現場のエッジデバイス1に転送し、物品選別用のAIモデル31として活用することで、物品の選別精度を向上することができる。
なお、エッジデバイス1において不良品が検出された場合に、エッジデバイス1から製造現場のPLC(Programmable Logic Controller)にアラートが出力されてもよい。この場合、不良品に対する製造現場での迅速な対応が可能になる。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
通信部19は、インターネットを含むネットワークNを介して他の装置(図1の例ではサーバ2及び管理者端末3等)との間で通信を行う。
通信部19における通信プロトコルには、MQTT通信を用いる。MQTT通信は、一般的なHTTP通信に比べて処理が軽くなるため、例えば多数の製造ラインを監視するために多数のエッジデバイス1の通信線を束ねて大量同時接続する場合でも多数のエッジデバイス1を安定して稼働させることができる。
また、リムーバブルメディア21は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
なお、他のサーバ2や管理者端末3等の情報処理装置についてもエッジデバイス1と同様のハードウェア構成を備える。
つまり、AIモデル31は、入力された画像データの処理結果として、複数のカテゴリのうち物品が属するカテゴリを出力する。
画像取得部41は、カメラ22により撮像される製造物T1乃至Tnの夫々の画像データを順次取得する。
判定部42は、所定条件として所定のカテゴリ(例えば不良品カテゴリ)に属するという条件を用いて、選別結果が当該所定条件を満たすか否かを判定する。
即ち、上述の例でいえば、判定部42は、製造物Tkを被写体に含む画像データをAIモデル31へ入力させる。製造物Tkは不良品であるというAIモデル31の選別結果(出力)である場合、判定部42は、所定条件を満たすと判定する。これに対して、製造物Tkは正常品というAIモデル31の選別結果である場合、判定部42は、所定の条件を満たさないと判定する。
即ち、出力制御部43は、判定部42により所定条件を満たす(例えば製造物T2は不良品)と判定された場合、その旨のテキストデータ「NG」と共に不良品(例えば製造物T2等)を被写体に含む画像データを判定結果の情報としてサーバ2に出力する制御を実行する。
これに対して、出力制御部43は、判定部42により所定条件を満たさないと判定された場合(例えば製造物T1等は正常品)、その旨のテキストデータ「OK」のみを判定結果の情報としてサーバ2に出力する制御を実行する。
例えば、出力制御部43は、判定部42により製造物T1等が正常品と判定された場合、例えば「OK」等のテキストデータという判定結果の情報と共に、製造物T1等を特定可能な情報、例えば当該製造物T1等の識別情報(ID:Identification)と共に送信する。
また、出力制御部43は、判定部42により製造物T1等が正常品と判定された場合であれば、例えば「NG」等のテキストデータと、当該製造物T2を被写体に含む画像データとの組を判定結果の情報として、この判定結果の情報と共に、製造物T2を特定可能な情報、例えば当該製造物T2の識別情報(ID)と共に送信する。
なお、判定結果の情報の送り先は、サーバ2に限らず他の宛先に送ってもよい。例えば宛先がネットワークN上のクラウドサービスやストレージサービス等の保存場所を宛先に設定することで、出力制御部43は、AIモデル31により選別された出力情報を、当該保存場所にアップロードする制御を実行する。
AIモデル61は、例えばNeural NetworkやDeep Neural Network等のアルゴリズムによって獲得される学習済みモデルであり、後述の学習部73により学習、再学習及び更新される。
AIモデル61は、サーバ2からエッジデバイス1へ転送されてデプロイされ、エッジデバイス1において選別処理のAIモデル31として活用される。
具体的には、AIモデル61は、選別対象の不良品のカテゴリに属する画像データに基づいて学習することができる。
AIモデル61は、AIモデル31と同じ機能を持ち、選別対象の画像データが入力されると、正常品カテゴリに属するものか不良品カテゴリに属するものかを識別し、識別した夫々の数をカウントし、識別結果の出力情報(正常品カテゴリか不良品カテゴリか)を出力する。
なお、エッジデバイス1から送られてきた判定結果の情報が、例えば不明品又は不良品を示すものであれば、不明品又は不良品とし選別された画像データと、その画像データが不明品又は不良品であることを示す「NG」や不良品である確率を示す確率値のテキストデータと、不明品又は不良品として選別された製造物のIDと、が対応して選別情報として選別情報DB62に記憶される。この他、判定結果の情報には、判定時刻(良品、不良品又は不明品の検出時刻)を示すタイムスタンプ等も含まれているので、これも製造物のIDに対応付けて選別情報DB62に記憶される。
提示部71は、物品選別に関するサービスの提供を依頼する会員(例えば製造物T1乃至Tnを製造する会社等)に向けてサービスサイトを公開する。
サービスサイトでは、会員に会員ページを提供する。会員ページでは、エッジデバイス1からサーバ2にアップロードされた物品の画像データの選別結果の情報を会員が情報処理装置、例えば管理者端末3等から閲覧することができる。
例えば可視化部81は、画像データ及び選別結果を用いて、選別対象の物品に関する情報を生成して、他の情報処理装置(例えば管理者端末3等)に提示する。
具体的には、可視化部81は、エッジデバイス1から出力されてきた選別結果の情報(正常品のOKのテキストデータや不良品の画像データ及びNGのテキストデータ等)の製造物T2に関する情報を、会員のマイページのリアルタイム判定画面111(図6参照)に出力し可視化する。
具体的には、アラート部82は、例えば会員のマイページの管理画面(図6参照)や管理者端末3等に不良品が検出された旨の警報情報を表示することで、不良品が検出された旨を管理者に通知する。
具体的には、モデル生成器72は、例えばYOLO等の物体検出アルゴリズムや、Resnet、VGG等の画像認識アルゴリズムが含まれる汎用的なモデルX(図6参照)を機械学習モデルとして採用し、汎用的なモデルXに不良品のサンプル画像データを入力して学習させるものとする。
具体的には、学習部73は、エッジデバイス1から出力された画像データ及び選別結果のテキストデータを用いて、AIモデル61に対する再学習を行う。
モデル提供部74は、再学習が行われたAIモデル61を、エッジデバイス1に提供する。
具体的には、モデル提供部74は、学習部73により再学習されたAIモデル61をエッジデバイス1へ送信しデプロイすることで、エッジデバイス1のAIモデル31を常に識別能力の高い状態に維持する。
さらに、再学習させたAIモデル61をエッジデバイス1にデプロイすることで、エッジデバイス1における物品の選別能力が向上し選別精度を向上することができる。
この結果、ネットワークNを利用して異なる場所どうしで連携を行いつつ通信リソースの消費を抑えてコストを削減し、さらには選別精度を向上することができる。
図4は、実施形態の情報処理システムの動作を示すフローチャートである。
実施形態の情報処理システムの場合、ステップS11において、選別対象の製造物T1乃至Tnに関する画像データを入力して当該選別対象の製造物T1乃至Tnに対する選別結果を出力するAIモデル31をエッジデバイス1に保持する。
具体的には、サーバ2のモデル提供部74が、サーバ2に保持されているAIモデル61を、製造現場に設置されているエッジデバイス1に転送し、エッジデバイス1に保持する。
具体的には、画像取得部41は、製造現場の製造ラインL上を搬送される製造物T1乃至Tnが順にカメラ22により撮像された画像データを取得する。
具体的には、出力制御部43は、所定条件(例えば不良品のカテゴリに属するという条件)を満たすと判定された場合、その判定結果を示すテキストデータ「NG」と共に不良品とされた製造物、例えば製造物T2等の画像データを外部に出力する。
また、出力制御部43は、所定条件(例えば不良品のカテゴリに属するという条件)を満たさないと判定された場合、その判定結果のテキストデータ「OK」のみを外部に出力する制御を実行する。
なお、外部とは、エッジデバイス1以外の情報処理装置であり、例えばサーバ2、管理者端末3及び製造現場に設置されるPLC等である。
リアルタイム判定画面111では、AIモデル31による選別結果や判定部42によるNG判定の結果等をリアルタイムで表示可能である。
具体的に、リアルタイム判定画面111には、製造物T1、T2…、Tnを選別した結果の情報が、製造物T1、T2…、Tnに対応するアイコンH1、H2…、Hn等の形態で表示される。
アイコンH1には、チェックマーク112が表示されており、管理者がアイコンH1を一目見れば、正常品「OK」であることがわかる。アイコンH2には、エクスクラメーションマーク113が表示されており、管理者がアイコンH2を一目見れば、注意品であることがわかる。アイコンH3には、Xマーク114が表示されており、管理者がアイコンH3を一目見れば、不良品であることがわかる。
図6は、本情報処理システムの一連の処理の流れを説明するための図である。
図6に示すステップ21において、サーバ2のモデル生成器72は、汎用的なモデルXと、例えば製造物T1乃至Tnの不良品のサンプル画像データ等の選別対象データとを導入し、製造物T1乃至Tnの中から不良品を選別するためのAIモデル61を作成する。
そして、選別したカテゴリが所定のカテゴリか否かによって不良品か否かを判定し、その判定結果の情報を現場のPLCへ出力すると共に、サーバ2へアップロードし選別情報DB62に記憶する。
なお、画像データが不良品と判定された場合、当該画像データと不良品であることを示すテキストデータとがサーバ2へアップロードされ、画像データが正常品と判定された場合、正常品であること示すテキストデータのみがサーバ2へアップロードされる。
なお、アラートの具体的な手段は、例えば電子メール等であってもよく、管理者のマイページのリアルタイム判定画面111(図5等)にNGを示す表示を行うようにしてもよい。
その後、サーバ2では、ステップ29において、モデル提供部74(図3参照)が、所定のタイミングで、学習済みのAIモデル61をエッジデバイス1に転送しデプロイする。所定のタイミングとしては、例えばエッジデバイス1から転送要求があったとき、又は一定期間毎等であってもよい。
図7は、本情報処理システムを検品業務のチェックに適用するケースの一例を示す図である。
図8は、本情報処理システムを作業員の保護具のチェックに適用するケースの一例を示す図である。
図9は、本情報処理システムを危険区域のアラートに適用するケースの一例を示す図である。
図10は、本情報処理システムを家畜の生死のチェックに適用するケースの一例を示す図である。
図11は、本情報処理システムを時間変化の観察に適用するケースの一例を示す図である。
図12は、本情報処理システムを企業の要望に合わせて活用するケースの一例を示す図である。
図13は、第2実施形態の情報処理システムのサーバの機能的構成の一例を示す図である。
図14は、図13の情報処理システムの管理者端末に表示されるホーム画面の一例を示す図である。
図15は、図14のホーム画面の他の一例を示す図である。
図16は、図14のホーム画面から遷移して表示される画像分類詳細画面の一例を示す図である。
図17は、図16の画像分類詳細画面から遷移して表示される画像分類一覧画面の一例を示す図である。
なお、図13において第2実施形態を説明するにあたり、上述した図3に示したサーバの機能的構成と同じ機能的構成には同一の符号を付しその説明は省略する。
この第2実施形態は、エッジデバイス1のAIモデル31が、良品か不良品かの判定に迷うような曖昧な物品について、さらに学習を進めて選別精度を向上するように構成したものである。
判定部42は、当該所定条件として第1条件に加えてさらに第3カテゴリ(例えば良否判定不明等)に属するという第2条件を用いて、当該所定条件を満たすか否かを判定する。
出力制御部43は、判定部42により第2条件を満たすと判定された場合、当該判定結果として第3カテゴリ(例えば不明品等)という情報(不明品という分類ラベル)と共に処理対象画像データを外部(例えばサーバ2等)に出力する。
出力制御部43は、判定部42により第1条件及び第2条件の何れも満たさないと判定された場合、その判定結果のみを外部(例えばサーバ2等)に出力する。
具体的には、評価受付部75は、エッジデバイス1から送信されてきた処理対象画像データ(分類ラベル付きの画像データ)及び処理結果を受信し、管理者端末3に提供する。そして、管理者端末3の側で管理者により処理対象画像データの分類ラベルが変更された場合、評価受付部75は、その変更された分類ラベルの画像データを受け付ける。
このように、処理対象画像データ及び処理結果に加えてユーザの評価を用いてAIモデルに対する再学習を行うことで、曖昧な判定結果であった画像データに対して、正しい分類のラベルを付与することで、良品、不良品の選別精度を向上することができる。
具体的には、GUI制御部76は、図14に示すホーム画面300を、管理者端末3に提供し表示させる。
このホーム画面300には、メニュー欄301と表示欄302が設けられている。表示欄302には、エッジデバイス1の名称「Aデバイス」、エッジデバイス1から取得された未分類の画像データの残数表示エリア303、未分類の画像データを分類するために、画面を画像分類詳細画面320(図16参照)へ遷移させるためのボタン304、ボタン304の操作により読み出される画像データの表示エリア305、画面をリアルタイム判定画面111(図5参照)へ遷移させるためのボタン306、本日のデータの集計状況を物品毎の数値や物品の種別、グラフで表示するエリア307等が配置されている。
この場合、Aデバイス、Bデバイス、Cデバイス、Dデバイスの4つのエッジデバイス1が物品の選別現場に配置されているものとする。
このホーム画面310では、夫々のデバイス毎にエリア311乃至314が区分され、夫々のエリア311乃至314に、図14に示したボタンと同じボタン31315乃至318が配置されており、個々のデバイス毎に操作が可能である。
ボタン322aは、例えば「NG1」等の分類ラベルを画像データに付与するボタンである。「NG1」は、例えば「キズあり」等の不良品の分類である。
ボタン322bは、例えば「NG2」等の分類ラベルを画像データに付与するボタンである。「NG2」は、例えば「みかん」等の「りんご」とは異なる種類の分類である。
ボタン322cは、例えば「OK」等の分類ラベルを画像データに付与するボタンである。「OK」は、例えば「良品」に分類されるものである。
ボタン322dは、例えば「WARNING」等の分類ラベルを画像データに付与するボタンである。「WARNING」は、「NG1」、「NG2」、「OK」以外の、例えば「要注意品」等に分類されるものである。
絞り込みボタン327は、分類クラス名選択欄324のクラス名ボタンの選択操作及び検索対象期間選択欄326において期間が指定された後、クリック操作されることで、対象の画像データを読み出す。
CSV出力ボタン328は、夫々の画像データのメタデータをCSV出力するためのボタンであり、クリック操作されると、夫々の画像データのメタデータのCSVファイルが生成されて出力される。
一覧ページへ戻るボタン330は、画面を図17に示す画像分類一覧画面330に遷移させるためのボタンである。
図17に示す画像分類一覧画面330には、図16と同様に、メニュー欄301と表示欄302が設けられている。表示欄302には、分類済みの画像データ322が一覧表示される。表示欄302の右エリアには、図16と同様に、分類クラス名選択欄324、登録者名選択欄325、検索対象期間選択欄326、絞り込みボタン327、CSV出力ボタン328、学習開始ボタン329及び一覧ページへ戻るボタン330等が配置されている。つまりこの画像分類一覧画面330は、管理者が分類結果を閲覧するための画面である。
ここで、管理者により画像表示エリア321に表示された未分類の画像データが確認された後、ボタン322a乃至322dのうちいずれか一つがクリック操作されることで、クリック操作されたボタンの新たな評価が、評価受付部75により受け付けられ、画像データに新たな分類ラベルが付与され、分類済みとされる。
分類後は、次の未分類の画像データが画像表示エリア321に表示される。
未分類の画像データが分類された後、学習開始ボタン329がクリック操作されると、分類済みの画像データは、評価受付部75から学習部73へ教師データとして入力され、AIモデル61の再学習が実行される。
再学習後、AIモデル61は、サーバ2からエッジデバイス1へ転送され、エッジデバイス1のAIモデル31が更新される。
例えば管理者等のユーザがサンプルの画像データをAIモデル61に学習させてAIモデル61を構築し、構築したAIモデル61を再学習させることができるようになり、学習データとテストデータとを用いて精度の検証ができるようになる。
エッジテバイス1の側で不良品の画像データだけをピックアップしようとしたときに、AIモデル31がNGと判定したものだけを集めてもAIモデル31の精度向上に繋がり難い。
本当に必要な画像データは、AIモデル31が判定を間違えた良品や不良品の画像データであり、その画像データに対して正しくラベル付けして学習させる必要がある。
具体的には、良品に近い不良品(例えば50%の確率で不良品と判定された画像データ)や特定の不良と思わしき良品(例えば小さなひび、欠け、キズ、その他の部位の異変等)等の不明品であると判定される製造物等の物品の画像データが得られることがあり、これを解析することが選別精度の向上には重要である。
画像データに対して正しくラベル付けして学習させることを実現するためには、AIモデル31の判定結果とは別に生データを分類する設定が必要であり、本実施形態では、AIモデル31から不良品である確率値が出力されるものとして、当該確率値を利用することによってそれを可能する。
なお、確率値は、AIモデル31の出力を利用する他、正規品の画像データと処理対象画像データとの対比で求められる類似度計算の結果に基づいて求めてもよい。50%~70%程度は一例であり、他の値であってもよく、良否の識別が難しい曖昧の数値であればよい。
そして、判定部42により第2条件を満たすと判定された場合、当該判定結果として第3カテゴリ(例えば不明品等)という情報と共に処理対象画像データをサーバ2へ出力する。
さらに、ユーザ側でAIモデル61を構築及び再学習できるような画像分類詳細画面320(GUI画面)を用意し、学習データやテストデータを用いて精度検証をできるようにし、構築及び再学習した学習済みのAIモデル61をそのままリモートでエッジデバイス1に実装できるシステムを提供することができる。
つまりユーザ側で再学習に必要なデータ収集及び分類を行い、そのまま精度が上がったAIモデル61をエッジデバイス1にデプロイして利用するというサイクルを回すことができるようになる。これ以外にも、新製品が出た際や新しいロットに対応する際にも、手間なく対応することが可能になる。
上記実施形態では、エッジデバイス1がカメラ22を有するものとして説明したが、カメラ22は、エッジデバイス1に接続されたカメラ、つまり外部カメラであっても良い。
即ち出力制御部43は、判定部42により所定条件を満たすと判定された場合、その判定結果と共に処理対象画像データを外部に出力し、判定部42により所定条件を満たさないと判定された場合、その判定結果のみを外部に出力する制御を実行すればよい。
本情報処理システムでは、夫々の機能が独立しているため、サービスが何らかの要因で停止した場合、サービス全体が停止することなく、特定の機能のみを復旧することで対処が可能である。
上記実施形態では、エッジデバイス1において不良品が検出された場合に、エッジデバイス1と生産現場に設置されるPLCとが連携してアラートを出力する例を説明したが、PLCの他に、例えばブザーやランプ等と連携してアラートを出力してもよい。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロック及びデータベースを用いるのかは特に図3の例に限定されない。また、機能ブロックの存在場所も、図3に特に限定されず、任意でよい。例えば、サーバ2の機能ブロック及びデータベースを管理者端末3に移譲させてもよい。また、一つの機能ブロック及びデータベースは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
物品(例えば図3の製造物T1乃至Tn等)に関する画像データを入力して当該物品に対する所定の処理結果(選別結果)を出力するモデル(例えば図3のAIモデル31等)を保持するモデル保持手段(例えば図3の記憶部18等)と、
処理対象の物品に関する画像データ(例えば図3の製造物T1乃至Tnの画像等)を選別対象画像データとして取得する画像取得手段(例えば図3の画像取得部41等)と、
前記処理対象画像データが前記モデルに入力された結果として当該モデルから出力される前記所定の処理結果が、所定条件(例えば不良品のカテゴリに属するという条件)を満たすか否かを判定する判定手段(例えば図3の判定部42等)と、
前記判定手段により前記所定条件(例えば不良品のカテゴリに属するという条件)を満たすと判定された場合、その判定結果(例えばNG等のテキストデータ)と共に前記処理対象画像データ(例えば製造物T2の画像データ等)を外部に出力し、前記判定手段により前記所定条件(例えば不良品のカテゴリに属するという条件)を満たさないと判定された場合、その判定結果(例えばOK等のテキストデータ)のみを外部に出力する制御を実行する出力制御手段(例えば図3の出力制御部43等)と、
を備える。
このように、第2情報処理装置であるサーバ2のAIモデル61を、第1情報処理装置であるエッジデバイス1にAIモデル31としてデプロイしておき、エッジデバイス1においてAIモデル31を用いて画像データのカテゴリの選別を行い、選別されたカテゴリが特定のカテゴリであるという条件を満たすか否かを判定し、その判定結果に応じてサーバ2へ送信する情報を制御するよう構成したことで、エッジデバイス1からは、正常品として選別される大多数の画像データはサーバ2へ送らずに、不良品として選別される僅かな画像データのみをサーバ2へ送ることで、ネットワークNに流れるデータ量を削減し、通信リソースの消費を抑えて運用コストを削減することができる。
また、サーバ2では、不良品の画像データだけが自動的に収集されるので、その画像データを用いてAIモデル61を再学習させて、AIモデル61の認識知識を向上させることで、次々に取得される物品の画像の中から不良品の画像を識別する選別精度を向上することができる。
この結果、ネットワークNを利用して異なる場所どうし(例えば製造現場と管理部門の場所と)の連携を行いつつネットワークNの伝送容量、つまり通信リソースの消費を抑えてコストを削減し、さらには選別精度を向上することができる。
前記判定手段(例えば図3の判定部42等)は、前記所定条件として所定のカテゴリ(例えば不良品のカテゴリ)に属するという条件を用いて、当該所定条件を満たすか否かを判定する。
このように、AIモデル31による画像データの選別結果を、例えば不良品のカテゴリに属するという条件で送信するか否かを判定することで、不良品の画像データのみをサーバ2で収集することができる。
前記判定手段(例えば図3の判定部42等)は、前記所定条件として前記第2カテゴリ(不良品)に属するという第1条件を用いて、当該所定条件を満たすか否かを判定する。
これにより、第2カテゴリ(不良品)に属する処理対象画像データだけがサーバ2へ送信されるようになり、通信リソースの消費を抑えることができる。
前記判定手段(例えば図3の判定部42等)は、前記所定条件として前記第1条件に加えてさらに前記第3カテゴリ(例えば良否判定不明等)に属するという第2条件を用いて、当該所定条件を満たすか否かを判定し、
前記出力制御手段(例えば図3の出力制御部43等)は、
前記判定手段(例えば図3の判定部42等)により前記第1条件を満たすと判定された場合、当該判定結果として前記第2カテゴリ(不良品)という情報と共に前記処理対象画像データを外部に出力し、
前記判定手段(例えば図3の判定部42等)により前記第2条件を満たすと判定された場合、当該判定結果として前記第3カテゴリ(例えば良否判定不明等)という情報と共に前記処理対象画像データを外部に出力し、
前記判定手段(例えば図3の判定部42等)により前記第1条件及び前記第2条件の何れも満たさないと判定された場合、その判定結果のみを外部に出力する。
このように第2条件(第3カテゴリに属するという条件)を満たすと判定された場合、当該判定結果として第3カテゴリ(例えば良否判定不明等)という情報と共に処理対象画像データを外部(例えば図3のサーバ2等)に出力することで、その処理対象画像データを人の目により良否を選別し、その処理対象画像データの分類ラベルを付け直す等した上でAIモデルに学習させることで、AIモデルが良否判定を間違えることを少なくし、選別精度を向上することができる。
前記第1情報処理装置(例えば図3のエッジデバイス1等)から出力された前記処理対象画像データ(例えば不良品の画像データ)及び前記処理結果(例えばNG等のテキストデータ)を用いて、前記モデル(例えば図3のAIモデル61等)に対する再学習を行う学習手段(例えば図3の学習部73等)と、
前記再学習が行われた前記モデル(AIモデル61等)を、前記第1情報処理装置(例えば図3のエッジデバイス1等)に提供する提供手段(例えば図3のモデル提供部74等)と、
を備える。
これにより、製造現場から取得された処理対象画像データ(例えば不良品の画像データ)のみをモデル(例えばAIモデル61等)に再学習させて不良品の識別知識を高めた上で製造現場の情報処理装置(例えばエッジデバイス1等)へ提供するので、情報処理装置(例えばエッジデバイス1等)において学習済みの賢いモデル(例えばAIモデル31等)にて画像データを選別できるようになり、物品の中から不良品を選別する精度を向上することができる。
前記学習手段(例えば図3の学習部73等)は、前記処理対象画像データ及び前記処理結果に加えてさらに前記ユーザの評価を用いて、前記モデルに対する再学習を行う。
このように、処理対象画像データ及び処理結果に加えてユーザの評価(AIモデルによる認識が間違っていたことで分類ラベルを付け直した画像データ(教師データ)のフィードバック)を用いてAIモデルに対する再学習を行うことで、選別の際に良否判定不明となるデータを少なくし、選別精度を向上することができる。
を備える。
これにより、例えば現場に設置される他の情報処理装置(例えば図13の管理者端末3等)のユーザインターフェイスから、学習手段(例えば図3の学習部73等)及び前記提供手段(例えば図3のモデル提供部74等)の夫々の機能を発揮させるための操作を、ユーザ自身が行うことができるようになる。
例えばユーザ側でユーザインターフェイスからAIモデルを構築し、また構築したAIモデルを再学習させることができるようになり、学習データとテストデータとを用いて精度の検証をできるようになる。
この結果、ユーザがユーザインターフェイスを介して作成しサーバに保存した学習済みのAIモデルを、リモートで、他の情報処理装置(例えば図3のエッジデバイス1等)に実装することができるシステムを提供することができる。
前記第1情報処理装置(例えば図3のエッジデバイス1等)から出力された前記処理対象画像データ(例えば不良品の画像データ)及び前記処理結果(例えばNG等のテキストデータ等)を用いて、前記処理対象の物品に関する情報(例えば図5のリアルタイム判定画面111の他、処理対象画像データ及び前記処理結果自身や不良品検出時のアラート等も含む)を生成して、他の情報処理装置(例えば図3の管理者端末3等)に提示する提示手段(例えば図3のモデル提供部74等)、
をさらに備える。
これにより、物品が配置された現場から離れた遠隔地に存在する管理者が現場の物品の状況を確認することができるので、異なる場所どうしの業務連携を図ることができる。
Claims (10)
- 物品に関する画像データを入力して当該物品に対する所定の処理結果を出力するモデルを保持するモデル保持手段と、
処理対象の物品に関する画像データを処理対象画像データとして取得する画像取得手段と、
前記処理対象画像データが前記モデルに入力された結果として当該モデルから出力される前記所定の処理結果が、所定条件を満たすか否かを判定する判定手段と、
前記判定手段により前記所定条件を満たすと判定された場合、その判定結果と共に前記処理対象画像データを外部に出力し、前記判定手段により前記所定条件を満たさないと判定された場合、その判定結果のみを外部に出力する制御を実行する出力制御手段と、
を備える情報処理装置。 - 前記モデルは、前記所定の処理結果として、複数のカテゴリのうち前記物品が属するカテゴリを出力し、
前記判定手段は、前記所定条件として所定のカテゴリに属するという条件を用いて、当該所定条件を満たすか否かを判定する、
請求項1に記載の情報処理装置。 - 前記複数のカテゴリは、良品であることを示す第1カテゴリと、不良品であることを示す第2カテゴリとを含み、
前記判定手段は、前記所定条件として前記第2カテゴリに属するという第1条件を用いて、当該所定条件を満たすか否かを判定する、
請求項2に記載の情報処理装置。 - 前記複数のカテゴリは、さらに、前記良品か前記不良品かの切り分けが困難なことを示す第3カテゴリを含み、
前記判定手段は、前記所定条件として前記第1条件に加えてさらに前記第3カテゴリに属するという第2条件を用いて、当該所定条件を満たすか否かを判定し、
前記出力制御手段は、
前記判定手段により前記第1条件を満たすと判定された場合、当該判定結果として前記第2カテゴリという情報と共に前記処理対象画像データを外部に出力し、
前記判定手段により前記第2条件を満たすと判定された場合、当該判定結果として前記第3カテゴリという情報と共に前記処理対象画像データを外部に出力し、
前記判定手段により前記第1条件及び前記第2条件の何れも満たさないと判定された場合、その判定結果のみを外部に出力する、
請求項3に記載の情報処理装置。 - 請求項1乃至3のうち何れか1項の前記情報処理装置から出力された前記処理対象画像データ及び前記処理結果を用いて、前記モデルに対する再学習を行う学習手段と、
前記再学習が行われた前記モデルを、請求項1乃至3のうち何れか1項の前記情報処理装置に提供する提供手段と、
を備える情報処理装置。 - 前記処理対象画像データ及び前記処理結果に対するユーザの評価を受付ける評価受付手段をさらに備え、
前記学習手段は、前記処理対象画像データ及び前記処理結果に加えてさらに前記ユーザの評価を用いて、前記モデルに対する再学習を行う、
請求項5に記載の情報処理装置。 - 前記学習手段及び前記提供手段の夫々の機能を発揮させるための操作を前記ユーザに行わせるためのユーザインターフェイスを、当該ユーザにより操作される他の情報処理装置に提供する制御を実行する制御手段、
をさらに備える請求項5又は6に記載の情報処理装置。 - 前記処理対象画像データ及び前記処理結果を用いて、前記処理対象の物品に関する情報を生成して、他の情報処理装置に提示する提示手段、
をさらに備える請求項5乃至7のうち何れか1項に記載の情報処理装置。 - 情報処理装置が実行する情報処理方法において、
物品に関する画像データを入力して当該物品に対する所定の処理結果を出力するモデルを保持するステップと、
処理対象の物品に関する画像データを処理対象画像データとして取得する画像取得ステップと、
前記処理対象画像データが前記モデルに入力された結果として当該モデルから出力される前記所定の処理結果が、所定条件を満たすか否かを判定する判定ステップと、
前記判定ステップにより前記所定条件を満たすと判定された場合、その判定結果と共に前記処理対象画像データを外部に出力し、前記判定ステップにより前記所定条件を満たさないと判定された場合、その判定結果のみを外部に出力する制御を実行する出力制御ステップと、
を含む情報処理方法。 - 情報処理装置を制御するコンピュータに、
物品に関する画像データを入力して当該物品に対する所定の処理結果を出力するモデルを保持するステップと、
処理対象の物品に関する画像データを処理対象画像データとして取得する画像取得ステップと、
前記処理対象画像データが前記モデルに入力された結果として当該モデルから出力される前記所定の処理結果が、所定条件を満たすか否かを判定する判定ステップと、
前記判定ステップにより前記所定条件を満たすと判定された場合、その判定結果と共に前記処理対象画像データを外部に出力し、前記判定ステップにより前記所定条件を満たさないと判定された場合、その判定結果のみを外部に出力する制御を実行する出力制御ステップと、
を含む制御処理を実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022524042A JP7335658B2 (ja) | 2020-12-08 | 2021-12-07 | 情報処理装置 |
US18/256,040 US20240104911A1 (en) | 2020-12-08 | 2021-12-07 | Information processing device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020203752 | 2020-12-08 | ||
JP2020-203752 | 2020-12-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022124316A1 true WO2022124316A1 (ja) | 2022-06-16 |
Family
ID=81974541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/045008 WO2022124316A1 (ja) | 2020-12-08 | 2021-12-07 | 情報処理装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240104911A1 (ja) |
JP (1) | JP7335658B2 (ja) |
WO (1) | WO2022124316A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019139316A (ja) * | 2018-02-06 | 2019-08-22 | 国立大学法人 東京大学 | 識別システム、識別装置、識別方法及び識別プログラム |
JP2020148621A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社ナベル | 卵分類装置、卵分類方法及びコンピュータプログラム |
JP2021133955A (ja) * | 2020-02-26 | 2021-09-13 | 富士電機株式会社 | 飲料供給装置及び再学習済みモデル生成システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7190951B2 (ja) | 2019-03-27 | 2022-12-16 | 株式会社日立製作所 | 画像認識システムおよび画像認識方法 |
-
2021
- 2021-12-07 US US18/256,040 patent/US20240104911A1/en active Pending
- 2021-12-07 JP JP2022524042A patent/JP7335658B2/ja active Active
- 2021-12-07 WO PCT/JP2021/045008 patent/WO2022124316A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019139316A (ja) * | 2018-02-06 | 2019-08-22 | 国立大学法人 東京大学 | 識別システム、識別装置、識別方法及び識別プログラム |
JP2020148621A (ja) * | 2019-03-13 | 2020-09-17 | 株式会社ナベル | 卵分類装置、卵分類方法及びコンピュータプログラム |
JP2021133955A (ja) * | 2020-02-26 | 2021-09-13 | 富士電機株式会社 | 飲料供給装置及び再学習済みモデル生成システム |
Also Published As
Publication number | Publication date |
---|---|
JP7335658B2 (ja) | 2023-08-30 |
JPWO2022124316A1 (ja) | 2022-06-16 |
US20240104911A1 (en) | 2024-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111178456B (zh) | 异常指标检测方法、装置、计算机设备和存储介质 | |
Abdelrahman et al. | Assembly line anomaly detection and root cause analysis using machine learning | |
EP3285182B1 (en) | Multimodal search input for an industrial search platform | |
US9384603B2 (en) | Failure cause classification apparatus | |
CN109557896A (zh) | 用于飞机故障检测的系统和方法 | |
US20170351226A1 (en) | Industrial machine diagnosis and maintenance using a cloud platform | |
US11443277B2 (en) | System and method for identifying object information in image or video data | |
Proto et al. | REDTag: a predictive maintenance framework for parcel delivery services | |
US12019059B2 (en) | Detecting equipment defects using lubricant analysis | |
JP2006350923A (ja) | 交換部品推定システム、交換部品推定方法および交換部品推定プログラム | |
CN109871002B (zh) | 基于张量标签学习的并发异常状态识别与定位系统 | |
CN110688381A (zh) | 一种用于产品过程记录追溯的软件产品和软件方法 | |
CN117575222A (zh) | 生产管理方法、系统、设备及存储介质 | |
Becherer et al. | Intelligent choice of machine learning methods for predictive maintenance of intelligent machines | |
Trinks et al. | Image mining for real time fault detection within the smart factory | |
WO2022124316A1 (ja) | 情報処理装置 | |
KR102437917B1 (ko) | 장비 운영 시스템 | |
Britton et al. | Ai enabled data quality monitoring with hydra | |
US11741686B2 (en) | System and method for processing facility image data | |
CN114265891A (zh) | 基于多源数据融合的智慧车间系统、方法及存储介质 | |
KR20220161601A (ko) | 딥러닝 모델을 이용한 영상검사 대상체의 결함 판정시스템 | |
US20220011761A1 (en) | Systems and methods for data-driven process improvement | |
Amadio et al. | Building a taxonomony of industry 4.0 needs and enabling technologies | |
Engbers et al. | Applicability of algorithm evaluation metrics for predictive maintenance in production systems | |
US20230229541A1 (en) | Method for detecting and reporting an operation error in an in-vitro diagnostic system and an in-vitro diagnostic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2022524042 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21903415 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 18256040 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21903415 Country of ref document: EP Kind code of ref document: A1 |