JP2020024534A - Image classifier and program - Google Patents

Image classifier and program Download PDF

Info

Publication number
JP2020024534A
JP2020024534A JP2018148174A JP2018148174A JP2020024534A JP 2020024534 A JP2020024534 A JP 2020024534A JP 2018148174 A JP2018148174 A JP 2018148174A JP 2018148174 A JP2018148174 A JP 2018148174A JP 2020024534 A JP2020024534 A JP 2020024534A
Authority
JP
Japan
Prior art keywords
image
unit
learning
classification
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018148174A
Other languages
Japanese (ja)
Other versions
JP7117934B2 (en
Inventor
真綱 藤森
Naotsuna Fujimori
真綱 藤森
貴裕 望月
Takahiro Mochizuki
貴裕 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2018148174A priority Critical patent/JP7117934B2/en
Publication of JP2020024534A publication Critical patent/JP2020024534A/en
Application granted granted Critical
Publication of JP7117934B2 publication Critical patent/JP7117934B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

To reduce the time and labor in collecting useful teacher data when using teacher data to learn a learning model for classifying images.SOLUTION: An image classification unit 30 of an image classifier 3 estimates scores for respective categories by using a learning model with respect to each teacher candidate image of a plurality of collected teacher candidate images and classifies the teacher candidate image into a category giving a maximum score and sorts the teacher candidate images in the ascending order of score with respect to the respective categories to generate classification results for the respective categories. A correction unit 33 prompts an operator to confirm the classification results for the respective categories in the ascending order of score from the teacher candidate image having the lowest score and corrects the categories as needed in accordance with operator's operation to generate teacher data for the respective categories. A learning unit 35 uses the teacher data for the respective categories to learn the learning model.SELECTED DRAWING: Figure 1

Description

本発明は、コンピュータ及びハードディスクを用いた画像処理分野に属し、特に、収集した画像を分類して教師データを生成し、教師データを用いて学習モデルの学習を行う画像分類装置及びプログラムに関する。   The present invention relates to the field of image processing using a computer and a hard disk, and more particularly to an image classification device and a program for classifying collected images to generate teacher data and learning a learning model using the teacher data.

近年、画像を入力してその分類結果を直接出力するための深層学習が注目を集めている。この技術によれば、深層学習により生成された学習モデルを用いることで、画像の分類のために有用な特徴データを自動的に生成することができる。   In recent years, deep learning for inputting an image and directly outputting a classification result thereof has attracted attention. According to this technique, by using a learning model generated by deep learning, feature data useful for image classification can be automatically generated.

このため、人による特徴データの設計及び選択が不要になるという利点がある。また、人が手動で設計または選択した特徴データを用いて画像を分類するよりも、学習モデルを用いて分類する方が高い精度が得られるという報告がなされている。   For this reason, there is an advantage that the design and selection of the feature data by a person becomes unnecessary. There is also a report that classification using a learning model provides higher accuracy than classification of images using feature data manually designed or selected by a person.

一方で、深層学習を用いた画像分類装置の学習には、画像と正解ラベルとを一組とした大量の教師データが必要となる。しかし、大量の教師データの収集は、人手により行われることが想定されるため、多大な労力及び時間が必要となる。   On the other hand, learning of an image classification device using deep learning requires a large amount of teacher data in which a set of an image and a correct answer label is used. However, collection of a large amount of teacher data is supposed to be performed manually, which requires a great deal of labor and time.

画像分類のための教師データ生成技術については、これまでに複数の提案がされている。例えば、特許文献1には、基板の欠陥を自動的に分類するための教師データを生成する際に、オペレータの負荷を低減する技術が提案されている。   A plurality of proposals have been made on teacher data generation techniques for image classification. For example, Patent Literature 1 proposes a technique for reducing the load on an operator when generating teacher data for automatically classifying a defect of a substrate.

また、特許文献2には、画像を領域分割してクラスタリングし、オペレータの指示等により正事例データまたは負事例データとして選定することで、教師データを生成する技術が提案されている。   Patent Document 2 proposes a technique of generating teacher data by dividing an image into regions and performing clustering, and selecting the data as positive case data or negative case data according to an instruction from an operator or the like.

また、特許文献3には、学習に効果的な教師データを生成するために、画像から検出対象の領域を検出する複数の検出器を備え、これらの検出結果を統合することにより、教師データを選択する技術が提案されている。   Further, Patent Document 3 includes a plurality of detectors for detecting a region to be detected from an image in order to generate teacher data effective for learning, and integrates these detection results to generate teacher data. Techniques for selecting have been proposed.

また、深層学習を用いた画像分類の技術として、特許文献4には、画像の分類処理と再学習処理とを並行して行う技術が提案されている。具体的には、制御部は、分類処理を行う複数の判断部に対して稼働、休止等を制御し、再学習を行う再学習部に対して再学習の実施を制御し、再学習完了時に、学習モデルを複数の判断部に複製して稼働させる等の制御を行う。   As a technology of image classification using deep learning, Patent Literature 4 proposes a technology of performing image classification processing and re-learning processing in parallel. Specifically, the control unit controls the operation, suspension, and the like of the plurality of determination units that perform the classification process, controls the re-learning unit that performs the re-learning, and controls the execution of the re-learning. In addition, control is performed such that the learning model is copied to a plurality of determination units and operated.

特開2011−158373号公報JP 2011-158373 A 特開2009−282660号公報JP 2009-282660 A 特開2012−190159号公報JP 2012-190159 A 特開2017−211690号公報JP-A-2017-21690

しかしながら、前述の特許文献1の技術では、分類器によって仮に付与されたラベルの正否の判断を自動化するための特徴量を予め決めておく必要がある。また、特許文献2の技術では、教師データを収集するためにクラスタリングにより自動化しているが、クラスタリングに用いる特徴量は予め設定されている。このため、これらの技術は、特徴量の設計及び選定が困難な画像分類装置には適用が難しく、また、画像の状況判断等に用いる高度な画像分類装置にも適用が難しい。   However, in the technique of Patent Document 1 described above, it is necessary to determine in advance a feature amount for automatically determining whether a label temporarily assigned by a classifier is correct or not. Further, in the technique of Patent Literature 2, in order to collect teacher data, automation is performed by clustering, but feature amounts used for clustering are set in advance. For this reason, these techniques are difficult to apply to an image classifying apparatus in which it is difficult to design and select a feature amount, and also difficult to apply to an advanced image classifying apparatus used for determining the state of an image.

また、特許文献2の技術では、教師データの収集と分類器における学習とを独立して行うため、学習を行う分類器において、必ずしも有用な教師データを用いることができるとは限らない。   Further, in the technique of Patent Document 2, collection of teacher data and learning in a classifier are performed independently, so that useful teacher data cannot always be used in a classifier that performs learning.

また、特許文献3の技術では、複数の検出器を備え、それらの検出結果を統合することにより、教師データに加える画像を決定しているが、1つの検出器による検出結果を教師データとする場合には適用できない。また、オペレータによる教師データの確認とモデルの学習との並行処理については記載されておらず、データの収集からモデルの学習までの一連の処理に時間を要するという課題がある。   In the technique of Patent Document 3, an image to be added to teacher data is determined by integrating a plurality of detectors and integrating the detection results, but the detection result by one detector is used as teacher data. Not applicable in cases. In addition, there is no description about the parallel processing of checking teacher data and learning a model by an operator, and there is a problem that a series of processing from data collection to model learning requires time.

また、特許文献4の技術では、再学習のプロセスの並行処理を自動的に行っているが、予め正解ラベルが得られていることが前提となっており、教師データを収集する労力については解決されていない。   Further, in the technique of Patent Document 4, parallel processing of the re-learning process is automatically performed. However, it is premised that correct labels are obtained in advance, and the labor for collecting teacher data is solved. It has not been.

前述のとおり、画像分類装置の学習には、大量の教師データが必要となる。しかし、大量の教師データを収集したとしても、教師データが有用でない場合には、精度の高い分類を行うための学習モデルを生成することができない。このため、有用な教師データを、低労力かつ短時間で収集する仕組みが所望されていた。   As described above, a large amount of teacher data is required for learning of the image classification device. However, even if a large amount of teacher data is collected, if the teacher data is not useful, a learning model for performing highly accurate classification cannot be generated. Therefore, a mechanism for collecting useful teacher data with low labor and in a short time has been desired.

そこで、本発明は前記課題を解決するためになされたものであり、その目的は、教師データを用いて、画像を分類するための学習モデルの学習を行う際に、有用な教師データを収集するための労力及び時間を低減可能な画像分類装置及びプログラムを提供することにある。   Therefore, the present invention has been made to solve the above-described problem, and an object of the present invention is to collect useful teacher data when learning a learning model for classifying images using the teacher data. To provide an image classification device and a program that can reduce the labor and time required for the image classification.

前記課題を解決するために、請求項1の画像分類装置は、画像を分類するための学習モデルの学習を行う画像分類装置において、収集された複数の教師候補画像のそれぞれについて、前記学習モデルを用いてカテゴリ毎のスコアを推定し、前記スコアの最も高いカテゴリに分類し、カテゴリ毎に、前記スコアの低い順に前記複数の教師候補画像をソートし、カテゴリ毎の分類結果を生成する画像分類部と、前記画像分類部により生成された前記分類結果の前記教師候補画像について、カテゴリ毎に、前記スコアの低い順番にオペレータに確認を促し、前記オペレータの操作に従ってカテゴリを修正し、カテゴリ毎の前記教師候補画像を教師データとして生成する修正部と、前記修正部により生成されたカテゴリ毎の前記教師データを用いて、前記学習モデルの学習を行う学習部と、を備えたことを特徴とする。   In order to solve the problem, the image classification device according to claim 1, wherein the image classification device performs learning of a learning model for classifying images, wherein the learning model is generated for each of a plurality of collected teacher candidate images. An image classification unit that estimates a score for each category by using the category, classifies the plurality of teacher candidate images into categories having the highest score, sorts the plurality of teacher candidate images in descending order of the score for each category, and generates a classification result for each category And for the teacher candidate image of the classification result generated by the image classification unit, for each category, prompt the operator to confirm in the order of the lowest score, correct the category according to the operation of the operator, Using a correction unit that generates a teacher candidate image as teacher data, and using the teacher data for each category generated by the correction unit, A learning unit that performs learning of the serial learning model, characterized by comprising a.

また、請求項2の画像分類装置は、請求項1に記載の画像分類装置において、さらに、スケジューラを備え、前記画像分類部が、前記複数の教師候補画像を収集する画像収集装置から、前記複数の教師候補画像を入力し、前記スケジューラが、前記画像収集装置により前記複数の教師候補画像を収集する収集処理、前記画像分類部により前記分類結果を生成する分類処理、前記修正部により前記教師データを生成する修正処理、及び前記学習部により前記学習モデルの学習を行う学習処理のそれぞれのタイミングを制御すると共に、前記画像分類部による前記分類処理と、前記学習部による前記学習処理とが同時に行われないように、前記分類処理を開始させるための分類開始指示を前記画像分類部に出力し、前記学習処理を開始させるための学習開始指示を前記学習部に出力する、ことを特徴とする。   The image classification device according to claim 2 is the image classification device according to claim 1, further comprising a scheduler, wherein the image classification unit is configured to collect the plurality of teacher candidate images from the image collection device. Inputting the teacher candidate images, the scheduler collects the plurality of teacher candidate images by the image collection device, a classification process of generating the classification result by the image classification unit, and the teacher data by the correction unit. And a learning process for learning the learning model by the learning unit. The classification process by the image classification unit and the learning process by the learning unit are performed simultaneously. Output a classification start instruction for starting the classification process to the image classifying unit so as to prevent the learning process from starting. And it outputs a learning instruction to start the learning section, and wherein the.

また、請求項3の画像分類装置は、請求項2に記載の画像分類装置において、前記スケジューラが、前記収集処理を開始させるための収集開始指示を前記画像収集装置に出力し、前記画像収集装置から前記収集処理が完了したことを示す収集完了を入力すると、前記収集処理が完了したことを判定し、前記画像収集装置による前記収集処理が完了しており、かつ、前記学習部による前記学習処理が完了している場合、前記分類開始指示を前記画像分類部に出力し、前記画像分類部から前記分類処理が完了したことを示す分類完了を入力すると、前記分類処理が完了したことを判定し、前記分類処理が完了している場合、前記修正処理を開始させるための修正開始指示を前記修正部に出力し、前記修正処理が完了したことを示す修正完了を前記修正部から入力すると、前記修正処理が完了したことを判定し、前記修正部による前記修正処理が完了しており、かつ、前記画像分類部による前記分類処理が完了している場合、前記学習開始指示を前記学習部に出力し、前記学習部から前記学習処理が完了したことを示す学習完了を入力すると、前記学習処理が完了したことを判定する、ことを特徴とする。   The image classification device according to claim 3 is the image classification device according to claim 2, wherein the scheduler outputs a collection start instruction for starting the collection processing to the image collection device. When a collection completion indicating that the collection processing has been completed is input, it is determined that the collection processing has been completed, the collection processing by the image collection device has been completed, and the learning processing by the learning unit has been completed. Is completed, the classification start instruction is output to the image classification unit, and when the classification completion indicating that the classification processing is completed is input from the image classification unit, it is determined that the classification processing is completed. If the classification process has been completed, a correction start instruction for starting the correction process is output to the correction unit, and the correction completion indicating that the correction process has been completed is output to the correction unit. When input from the main part, it is determined that the correction processing has been completed, and when the correction processing by the correction part has been completed and the classification processing by the image classification part has been completed, the learning start is started. An instruction is output to the learning unit, and when learning completion indicating that the learning process has been completed is input from the learning unit, it is determined that the learning process has been completed.

さらに、請求項4のプログラムは、コンピュータを、請求項1から3までのいずれか一項に記載の画像分類装置として機能させることを特徴とする。   Furthermore, a program according to a fourth aspect causes a computer to function as the image classification device according to any one of the first to third aspects.

以上のように、本発明によれば、教師データを用いて、画像を分類するための学習モデルの学習を行う際に、有用な教師データを収集するための労力及び時間を低減することができる。   As described above, according to the present invention, when learning a learning model for classifying images using teacher data, it is possible to reduce labor and time for collecting useful teacher data. .

本発明の実施形態による画像分類装置を含む全体システムの概略図である。1 is a schematic diagram of an entire system including an image classification device according to an embodiment of the present invention. 全体の処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the whole process. 画像収集装置及び画像分類装置の処理フロー例を示す図である。FIG. 3 is a diagram illustrating an example of a processing flow of an image collection device and an image classification device. 画像分類部及び学習部による学習モデルの処理例を説明する図である。FIG. 9 is a diagram illustrating an example of processing of a learning model by an image classification unit and a learning unit. 記憶部に保存された分類結果の構成例を示す図である。FIG. 6 is a diagram illustrating a configuration example of a classification result stored in a storage unit. 記憶部に保存された教師データの構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of teacher data stored in a storage unit. 画像分類部の処理例を示すフローチャートである。5 is a flowchart illustrating a processing example of an image classification unit. 修正部の処理例を示すフローチャートである。It is a flowchart which shows the example of a process of a correction part. 学習部の処理例を示すフローチャートである。It is a flowchart which shows the example of a process of a learning part. スケジューラによる並行処理例を説明する図である。FIG. 9 is a diagram illustrating an example of parallel processing by a scheduler. スケジューラによる画像収集部及び前処理部の制御例を示すフローチャートである。5 is a flowchart illustrating a control example of an image collection unit and a preprocessing unit by a scheduler. スケジューラによる画像分類部の制御例を示すフローチャートである。5 is a flowchart illustrating a control example of an image classification unit by a scheduler. スケジューラによる修正部の制御例を示すフローチャートである。It is a flowchart which shows the control example of the correction part by a scheduler. スケジューラによる学習部の制御例を示すフローチャートである。It is a flowchart which shows the control example of the learning part by a scheduler.

以下、本発明を実施するための形態について図面を用いて詳細に説明する。
図1は、本発明の実施形態による画像分類装置を含む全体システムの概略図である。この全体システムは、画像を保持しているサーバ等の記憶装置1、画像収集装置2及び画像分類装置3を備えて構成される。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram of an entire system including an image classification device according to an embodiment of the present invention. The overall system includes a storage device 1 such as a server that holds images, an image collection device 2, and an image classification device 3.

サーバ等の記憶装置1と画像収集装置2とは、インターネット等の伝送路4を介して接続され、画像収集装置2と画像分類装置3とは、LAN(Local Area Network:ローカルエリアネットワーク)等を介して接続される。   The storage device 1 such as a server and the image collection device 2 are connected via a transmission path 4 such as the Internet, and the image collection device 2 and the image classification device 3 are connected to a LAN (Local Area Network) or the like. Connected via.

記憶装置1には、画像分類装置3の学習処理に用いる教師データの候補となる画像が保持されている。尚、記憶装置1は、図1に示すように、伝送路4を介して画像収集装置2に接続されるサーバ等であってもよいし、画像収集装置2に直接接続され、画像がデータベースとして保存されたハードディスク等であってもよい。   The storage device 1 stores images that are candidates for teacher data used in the learning process of the image classification device 3. The storage device 1 may be a server or the like connected to the image collection device 2 via the transmission path 4 as shown in FIG. 1, or may be directly connected to the image collection device 2 and store the image as a database. It may be a stored hard disk or the like.

図2は、図1に示した全体システムにおいて、全体の処理の流れを説明するフローチャートである。まず、オペレータは、所定数の正解ラベル付き教師データ(画像及びスコア)を用意する。画像分類装置3は、実際の処理を行う前に、オペレータにより予め用意された所定数の正解ラベル付き教師データを用いて、学習モデルの初期学習を行う(ステップS201)。   FIG. 2 is a flowchart for explaining the overall processing flow in the overall system shown in FIG. First, the operator prepares a predetermined number of teacher data with correct labels (images and scores). Before performing the actual processing, the image classification device 3 performs initial learning of a learning model using a predetermined number of teacher data with correct answers prepared in advance by an operator (step S201).

画像収集装置2は、外部の記憶装置1から画像を収集し、画像に対して前処理を行い、学習に適した形に変換する(ステップS202)。画像分類装置3は、画像毎に、学習モデルを用いてカテゴリ毎のスコア(信頼度)を推定し(ステップS203)、最大スコアのカテゴリを、当該画像が属するカテゴリとする(ステップS204)。スコアは、画像がカテゴリに属する確率を示す。   The image collection device 2 collects images from the external storage device 1, performs preprocessing on the images, and converts the images into a form suitable for learning (step S202). The image classification device 3 estimates a score (reliability) for each category using a learning model for each image (step S203), and sets the category having the highest score as the category to which the image belongs (step S204). The score indicates the probability that the image belongs to the category.

画像分類装置3は、カテゴリ毎に、スコアの低い順に画像をソートする(ステップS205)。そして、画像分類装置3は、カテゴリ毎に、スコアの低い画像から順番にオペレータに確認を促し(画像が当該カテゴリに属するか否かを確認させ)、オペレータの操作に従い、必要に応じてカテゴリを修正する(ステップS206)。   The image classification device 3 sorts the images for each category in ascending order of the score (step S205). Then, the image classification device 3 prompts the operator to confirm in order from the image with the lowest score for each category (confirms whether or not the image belongs to the category), and sorts the category as necessary according to the operation of the operator. Correct (step S206).

画像分類装置3は、オペレータによる確認の後に修正を行わなかったカテゴリ、及びオペレータによる確認の後に修正を行ったカテゴリを正しいカテゴリとして、カテゴリ毎の教師データを生成する(ステップS207)。そして、画像分類装置3は、カテゴリ毎の教師データに基づいて学習モデルの学習を行う(ステップS208)。   The image classification device 3 generates teacher data for each category, using the category that has not been modified after confirmation by the operator and the category that has been modified after confirmation by the operator as the correct category (step S207). Then, the image classification device 3 learns the learning model based on the teacher data for each category (step S208).

これにより、スコアの低い画像を教師データとして、学習モデルの学習が行われる。スコアの低い画像を教師データとするのは、画像を一層正しく分類できるように学習モデルを更新するためである。そもそもスコアの低い画像は、現時点の学習モデルによって正しいカテゴリに分類され難い画像である。この画像のカテゴリがオペレータにより正しく修正され、修正後の画像を教師データとして学習モデルの学習を行うことで、正しく分類し難かった画像の分類精度を高めることができる。   Thereby, learning of the learning model is performed using the image with a low score as teacher data. The reason why images with low scores are used as teacher data is to update the learning model so that the images can be classified more correctly. In the first place, an image with a low score is an image that is difficult to be classified into a correct category by the current learning model. The category of this image is correctly corrected by the operator, and learning of the learning model is performed using the corrected image as teacher data, whereby the classification accuracy of an image that has been difficult to correctly classify can be increased.

つまり、スコアの低い画像を教師データとすることにより、分類精度の高い学習モデルに更新することができる点で、スコアの低い画像は有用な教師データであるといえる。このように、スコアの低い画像は、現時点の学習モデルが分類を苦手とする画像であるから、これを優先的に教師データとすることで、学習モデルの分類精度を効率的に高めることができる。   In other words, an image with a low score can be said to be useful teacher data because an image with a low score can be updated to a learning model with high classification accuracy by using it as teacher data. As described above, since an image having a low score is an image for which the current learning model is not good at classifying, the classification accuracy of the learning model can be efficiently increased by preferentially setting this as teacher data. .

画像分類装置3は、処理を終了するか否か(所定の終了の条件を満たしているか否か)を判定し(ステップS209)、処理を終了しないと判定した場合(ステップS209:N)、ステップS202へ移行し、ステップS202〜S208の処理を繰り返す。一方、画像分類装置3は、ステップS209において、処理を終了すると判定した場合(ステップS209:Y)、処理を終了する。   The image classification device 3 determines whether or not to end the process (whether or not a predetermined end condition is satisfied) (step S209), and when it is determined that the process is not to be ended (step S209: N), The process proceeds to S202, and the processes of steps S202 to S208 are repeated. On the other hand, when the image classification device 3 determines in step S209 that the process is to be ended (step S209: Y), the process ends.

画像分類装置3は、ステップS209において、例えば追加学習により画像分類の精度が十分となった場合、または十分な数の教師データが得られた場合に、処理を終了する。   The image classification device 3 ends the process in step S209, for example, when the accuracy of the image classification becomes sufficient by additional learning or when a sufficient number of teacher data is obtained.

図1を参照して、画像収集装置2は、画像収集部20、教師候補画像が保存される記憶部21及び前処理部22を備えている。画像分類装置3は、画像分類部30、学習モデルが保存された記憶部31、カテゴリ毎の画像及びスコアが保存される記憶部32、修正部33、カテゴリ毎の画像が保存される記憶部34、学習部35及びスケジューラ36を備えている。   With reference to FIG. 1, the image collection device 2 includes an image collection unit 20, a storage unit 21 in which teacher candidate images are stored, and a preprocessing unit 22. The image classification device 3 includes an image classification unit 30, a storage unit 31 in which a learning model is stored, a storage unit 32 in which images and scores for each category are stored, a correction unit 33, and a storage unit 34 in which images for each category are stored. , A learning unit 35 and a scheduler 36.

図3は、画像収集装置2及び画像分類装置3の処理フロー例を示す図である。画像分類装置3のスケジューラ36は、画像収集装置2の画像収集部20及び前処理部22、並びに画像分類装置3の画像分類部30、修正部33及び学習部35におけるそれぞれの動作をスケジューリングし、統括制御する(ステップS300)。スケジューラ36の詳細については後述する。   FIG. 3 is a diagram illustrating an example of a processing flow of the image collection device 2 and the image classification device 3. The scheduler 36 of the image classification device 3 schedules the operations of the image collection unit 20 and the pre-processing unit 22 of the image collection device 2, and the image classification unit 30, the correction unit 33, and the learning unit 35 of the image classification device 3, Overall control is performed (step S300). Details of the scheduler 36 will be described later.

画像収集装置2の画像収集部20は、記憶装置1から伝送路4を介して、N枚の画像を収集し、N枚の画像を教師候補画像I1,・・・,INとして記憶部21に保存する(ステップS301)。Nは1以上の整数である。 Image acquisition of the image acquisition device 2 20 via the transmission path 4 from the storage device 1 collects N images, storing unit N images teacher candidate image I 1, · · ·, as I N 21 (step S301). N is an integer of 1 or more.

画像収集部20は、例えばWebページにある画像を、サイズまたはアスペクト比等の条件に基づいてダウンロードしてもよいし、分類対象となる画像が登録されたデータベースから、ランダムに選択して読み出すようにしてもよい。   For example, the image collection unit 20 may download an image on a Web page based on a condition such as a size or an aspect ratio, or may randomly select and read an image to be classified from a database in which images to be classified are registered. It may be.

前処理部22は、記憶部21からN枚の教師候補画像I1,・・・,INを読み出し、教師候補画像I1,・・・,INを画像分類装置3の入力フォーマットに適した形に変換するための前処理を行う(ステップS302)。そして、前処理部22は、前処理後のN枚の教師候補画像I1,・・・,INを画像分類装置3へ送信する。 Pre-processing unit 22, N pieces of the teacher candidate images I 1 from the storage unit 21, ..., reads the I N, suitable teacher candidate image I 1, ..., a I N input format of the image classification device 3 A pre-process for converting the data into a form is performed (step S302). Then, the preprocessing unit 22 transmits the N teacher candidate images I 1 ,..., IN after the preprocessing to the image classification device 3.

前処理部22は、例えば画像のサイズを学習モデルの入力サイズに合わせるために変換したり、学習モデルの汎化性能を向上させるためにランダムに変形させたり、ノイズを加えたりする。   The preprocessing unit 22 converts, for example, the size of the image to match the input size of the learning model, randomly deforms the image to improve the generalization performance of the learning model, and adds noise.

画像分類装置3の画像分類部30は、画像収集装置2の前処理部22から、前処理後のN枚の教師候補画像I1,・・・,INを受信する。そして、画像分類部30は、教師候補画像I1,・・・,INのそれぞれについて特徴量を算出し、特徴量に基づいてカテゴリ毎のスコアを推定し、スコアの最も高いカテゴリを特定する。カテゴリの数をCとし、Cは2以上の整数とする。 The image classification unit 30 of the image classification device 3 receives N pre-processed teacher candidate images I 1 ,..., IN from the pre-processing unit 22 of the image collection device 2. Then, the image classification section 30, the teacher candidate image I 1, · · ·, to calculate a feature amount for each of the I N, estimates the scores for each category based on the feature quantity, to identify the highest category score . The number of categories is C, and C is an integer of 2 or more.

具体的には、画像分類部30は、記憶部31に保存された学習モデルを用いて、教師候補画像I1,・・・,INのそれぞれについてカテゴリ毎のスコアを推定し、スコアの最も高いカテゴリを特定する。 Specifically, the image classification section 30 uses the stored learning model in the storage unit 31, a teacher candidate image I 1, · · ·, estimates the scores for each category for each of I N, most score Identify high categories.

画像分類部30の処理が行われる前に、学習モデルは、既に初期学習済みであるものとする。前述のとおり、初期学習時には、所定数の正解ラベル付き教師データが用意され、学習が行われる。   Before the process of the image classification unit 30 is performed, it is assumed that the learning model has already been initially learned. As described above, during the initial learning, a predetermined number of teacher data with correct labels are prepared and learning is performed.

画像分類部30は、特定したカテゴリに従い、教師候補画像I1,・・・,INのそれぞれをC個のカテゴリのうちのいずれかに分類する(ステップS303)。画像分類部30は、カテゴリ毎の分類結果である教師候補画像Ik,1,・・・,Ik,Nk及び特定したカテゴリのスコアSk,1,・・・,Sk,Nkを記憶部32に保存する(ステップS304)。画像分類部30の詳細については後述する。 Image classifying unit 30 in accordance with the identified category, a teacher candidate image I 1, · · ·, classifies the respective I N to any of the C-number of categories (step S303). The image classifying unit 30 stores the teacher candidate images I k, 1 ,..., I k, Nk which are the classification results for each category, and the scores S k, 1 ,. It is stored in the unit 32 (step S304). The details of the image classification unit 30 will be described later.

kはカテゴリの番号であり、k=1,・・・,Cである。Nkは、カテゴリkに分類された教師候補画像Ik,1,・・・,Ik,Nkの枚数であり、0以上の整数である。つまり、カテゴリkの分類結果は、Nk枚の教師候補画像Ik,1,・・・,Ik,Nk及びこれらのスコアSk,1,・・・,Sk,Nkである。 k is a category number, and k = 1,..., C. Nk is the number of teacher candidate images I k, 1 ,..., I k, Nk classified into the category k, and is an integer of 0 or more. That is, the classification result of the category k is Nk teacher candidate images I k, 1 ,..., I k, Nk and their scores S k, 1 ,.

図4は、画像分類部30及び学習部35による学習モデルの処理例を説明する図である。図4に示すように、画像分類部30は、教師候補画像I1,・・・,IN(総称して、教師候補画像Iという。)のそれぞれを、学習モデルの入力データとして入力層に与え、カテゴリ毎のスコアSを、学習モデルの出力データとして出力層から取得する。 FIG. 4 is a diagram illustrating an example of processing of a learning model by the image classification unit 30 and the learning unit 35. 4, the image classifying unit 30, the teacher candidate image I 1, ···, I N (collectively referred to. Teacher candidate image I) each, to the input layer as input data for learning model Then, a score S for each category is obtained from the output layer as output data of the learning model.

これにより、教師候補画像Iについて、学習モデルを用いてカテゴリ毎のスコアSが推定される。図4に示すスコアS(0.3,0.1,0,・・・,0.1)の例の場合、教師候補画像Iのカテゴリ1のスコアは0.3、カテゴリ2のスコアは0.1、カテゴリ3のスコアは0、・・・、カテゴリCのスコアは0.1である。全てのカテゴリのスコアの合計は1である。最大スコアが0.3であるとすると、画像分類部30は、教師候補画像Iを、最大スコアのカテゴリ1に分類する。   Thereby, the score S for each category is estimated for the teacher candidate image I using the learning model. In the example of the score S (0.3, 0.1, 0,..., 0.1) shown in FIG. 4, the score of category 1 of the teacher candidate image I is 0.3, and the score of category 2 is 0. ., The score of category 3 is 0,..., The score of category C is 0.1. The sum of the scores for all categories is 1. Assuming that the maximum score is 0.3, the image classification unit 30 classifies the teacher candidate image I into category 1 of the maximum score.

ここで、学習モデルを用いることで、入力層に入力された教師候補画像Iから特徴量が算出される。この特徴量とは、画像の局所的な特徴または画像全体の意味的な特徴を反映したベクトルであり、例えば畳み込みニューラルネットワークにおいては、畳み込み層及びプーリング層を繰り返し連ねることにより得られる。また、画像の勾配または色ヒストグラム等、学習により更新されない予め決められた特徴量を用いてもよい。   Here, the feature amount is calculated from the teacher candidate image I input to the input layer by using the learning model. The feature amount is a vector reflecting a local feature of the image or a semantic feature of the entire image. For example, in a convolutional neural network, the feature amount is obtained by repeatedly connecting a convolutional layer and a pooling layer. Alternatively, a predetermined feature amount that is not updated by learning, such as an image gradient or a color histogram, may be used.

そして、特徴量からカテゴリ毎のスコアが算出される。算出方法としては、例えば畳み込みニューラルネットワークにおいて、複数の全結合層を連ね、出力層としてカテゴリの個数(C個)の要素を持つ層を使用することにより得られる。   Then, a score for each category is calculated from the feature amount. As a calculation method, for example, in a convolutional neural network, it can be obtained by connecting a plurality of all connected layers and using a layer having an element of the number of categories (C) as an output layer.

尚、学習モデルは、教師あり学習が可能なモデルであり、画像の分類結果をスコアとして出力するものであればよい。学習モデルとしては、例えばニューラルネットワークが用いられる。この場合、ニューラルネットワークの種類は何でもよいが、深層学習で用いられる畳み込みニューラルネットワークであることが望ましい。畳み込みニューラルネットワークについては以下の文献を参照されたい。
A. Krizhevsky et al.,“Imagenet classification with deep convolutional neural networks”,Advances in neural information processing systems,pp.1097-1105(2012)
The learning model is a model capable of supervised learning, and may be any model that outputs the classification result of the image as a score. For example, a neural network is used as the learning model. In this case, any type of neural network may be used, but a convolutional neural network used in deep learning is preferable. For the convolutional neural network, refer to the following document.
A. Krizhevsky et al., “Imagenet classification with deep convolutional neural networks”, Advances in neural information processing systems, pp.1097-1105 (2012)

図5は、記憶部32に保存された分類結果の構成例を示す図である。図5に示すように、カテゴリ1について、教師候補画像I1,1,・・・,I1,N1及びスコアS1,1,・・・,S1,N1が記憶部32に保存される。また、カテゴリ2について、教師候補画像I2,1,・・・,I2,N2及びスコアS2,1,・・・,S2,N2が記憶部32に保存される。同様に、カテゴリCについて、教師候補画像IC,1,・・・,IC,NC及びスコアSC,1,・・・,SC,NCが記憶部32に保存される。 FIG. 5 is a diagram illustrating a configuration example of the classification result stored in the storage unit 32. As shown in FIG. 5, for the category 1, the teacher candidate image I 1, 1, · · ·, I 1, N1 and scores S 1, 1, · · ·, S 1, N1 is stored in the storage unit 32 . Further, the category 2, the teacher candidate image I 2,1, · · ·, I 2, N2 and scores S 2,1, · · ·, S 2, N2 is stored in the storage unit 32. Similarly, for category C, teacher candidate images I C, 1 ,..., I C, NC and scores S C, 1 ,.

N1は、カテゴリ1に分類された教師候補画像I1,1,・・・,I1,N1の枚数であり、0以上の整数である。N2は、カテゴリ2に分類された教師候補画像I2,1,・・・,I2,N2の枚数であり、0以上の整数である。同様に、NCは、カテゴリCに分類された教師候補画像IC,1,・・・,IC,NCの枚数であり、0以上の整数である。 N1 is the number of teacher candidate images I 1,1 ,..., I 1, N1 classified into category 1, and is an integer of 0 or more. N2 is the number of teacher candidate images I 2,1 ,..., I 2, N2 classified into category 2, and is an integer of 0 or more. Similarly, NC is the number of teacher candidate images I C, 1 ,..., I C, NC classified into category C, and is an integer of 0 or more.

図1及び図3に戻って、修正部33は、記憶部32から、分類結果であるカテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを読み出す。そして、修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番にオペレータに確認を促し、オペレータの操作に従い、必要に応じてカテゴリを修正する(ステップS305)。 Returning to FIGS. 1 and 3, the correction unit 33 reads from the storage unit 32 the teacher candidate images I k, 1 ,..., I k, Nk and the scores S k, 1 ,. Read out Sk and Nk . Then, the correction unit 33, for each category, the score S k, 1, ···, S k, low teacher candidate image I k of Nk, 1, ···, I k , a confirmation to the operator in order from Nk Then, according to the operation of the operator, the category is corrected as needed (step S305).

これにより、カテゴリが正しいと確認された教師候補画像Iについては、そのカテゴリはそのままとされ、カテゴリが正しくないと確認された教師候補画像Iについては、そのカテゴリは修正される。   As a result, the category of the teacher candidate image I whose category is confirmed to be correct is left as it is, and the category of the teacher candidate image I whose category is confirmed to be incorrect is corrected.

修正部33は、確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’を教師データとして、記憶部34に保存する(ステップS306)。修正部33の詳細については後述する。 The correction unit 33 stores the teacher candidate images I k, 1 ′ ,..., I k, Nk ′ for each category after confirmation and correction as teacher data in the storage unit 34 (step S306). Details of the correction unit 33 will be described later.

確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’には、確認後修正されなかった画像、及び確認後修正された画像が含まれる。kはカテゴリの番号であり、k=1,・・・,Cである。Nk’は、カテゴリkに属する確認及び修正後の教師候補画像Iの枚数であり、0以上の整数である。 The teacher candidate images I k, 1 ′ ,..., I k, Nk ′ for each category after confirmation and modification include images that have not been modified after confirmation and images that have been modified after confirmation. k is a category number, and k = 1,..., C. Nk ′ is the number of confirmed and corrected teacher candidate images I belonging to the category k, and is an integer of 0 or more.

これにより、スコアの低い教師候補画像Iから順番に確認及び修正が行われ、教師データが生成される。したがって、スコアの低い教師候補画像I(分類が誤っている教師候補画像I、またはカテゴリの分類が困難な分類境界に近い教師候補画像I)について、そのカテゴリを正しいものに修正することができ、これを優先的に教師データに追加することができる。前述のとおり、スコアの低い教師候補画像Iは、現時点の学習モデルが分類を苦手とする画像であるから、これを教師データとすることで、分類精度の高い学習モデルに更新することができる。   As a result, confirmation and correction are performed in order from the teacher candidate image I having the lowest score, and teacher data is generated. Therefore, with respect to a teacher candidate image I having a low score (a teacher candidate image I with a wrong classification or a teacher candidate image I near a classification boundary where classification of a category is difficult), the category can be corrected to a correct one. This can be preferentially added to the teacher data. As described above, the teacher candidate image I with a low score is an image for which the current learning model is not good at classification. By using this as teacher data, it is possible to update the learning model with high classification accuracy.

学習部35において、有用な教師データを用いて学習が行われるから、修正部33の処理は、分類精度の高い学習モデルに更新するために必要な処理であるといえる。   Since learning is performed in the learning unit 35 using useful teacher data, it can be said that the processing of the correction unit 33 is necessary for updating to a learning model with high classification accuracy.

また、カテゴリが付与された教師候補画像Iに対し、修正部33にてそのカテゴリを修正する処理は、カテゴリ(ラベル)が付与されていない画像に対してカテゴリを新たに付与する処理に比べ、処理負担が少なくて済む。   The process of correcting the category by the correcting unit 33 for the teacher candidate image I to which the category is added is different from the process of adding a new category to an image to which no category (label) is added. Processing load is reduced.

図6は、記憶部34に保存された教師データの構成例を示す図である。図6に示すように、カテゴリ1について、教師データ(の画像)I1,1’,・・・,I1,N1’が記憶部34に保存される。また、カテゴリ2について、教師データI2,1’,・・・,I2,N2’が記憶部34に保存される。同様に、カテゴリCについて、教師データIC,1’,・・・,IC,NC’が記憶部34に保存される。 FIG. 6 is a diagram illustrating a configuration example of the teacher data stored in the storage unit 34. As shown in FIG. 6, (category 1) teacher data (images thereof) I 1,1 ′ ,..., I 1, N1 ′ are stored in the storage unit 34. For category 2, the teacher data I 2,1 ′ ,..., I 2, N2 ′ are stored in the storage unit 34. Similarly, for the category C, the teacher data I C, 1 ′ ,..., I C, NC ′ is stored in the storage unit 34.

N1’は、カテゴリ1に属する教師データI1,1’,・・・,I1,N1’の枚数であり、0以上の整数である。N2’は、カテゴリ2に属する教師データI2,1’,・・・,I2,N2’の枚数であり、0以上の整数である。同様に、NC’は、カテゴリCに属する教師データIC,1’,・・・,IC,NC’の枚数であり、0以上の整数である。 N1 ′ is the number of teacher data I 1,1 ′ ,..., I 1, N1 ′ belonging to category 1, and is an integer of 0 or more. N2 ′ is the number of teacher data I 2,1 ′ ,..., I 2, N2 ′ belonging to category 2, and is an integer of 0 or more. Similarly, NC ′ is the number of teacher data I C, 1 ′ ,..., I C, NC ′ belonging to category C, and is an integer of 0 or more.

図1及び図3に戻って、学習部35は、記憶部34からカテゴリ毎の教師データIk,1’,・・・,Ik,Nk’を読み出す。そして、学習部35は、カテゴリ毎の教師データIk,1’,・・・,Ik,Nk’に基づいて、記憶部31に保存された学習モデルの学習を行う(ステップS307)。学習部35の詳細については後述する。 Returning to FIGS. 1 and 3, the learning unit 35 reads the teacher data I k, 1 ′ ,..., I k, Nk ′ for each category from the storage unit. Then, the learning unit 35 learns the learning model stored in the storage unit 31 based on the teacher data I k, 1 ′ ,..., I k, Nk ′ for each category (step S307). Details of the learning unit 35 will be described later.

図4を参照して、学習部35は、教師データIk,1’,・・・,Ik,Nk’のそれぞれを入力データとし、当該教師データが属するカテゴリを反映したカテゴリ毎のスコアSを正解データとして、学習モデルの学習を行う。カテゴリ毎のスコアSは、当該教師データが属するカテゴリのスコアを1とし、その他のカテゴリのスコアを0とする。 Referring to FIG. 4, learning unit 35 receives each of teacher data I k, 1 ′ ,..., I k, Nk ′ as input data, and scores S for each category reflecting the category to which the teacher data belongs. Is used as the correct answer data to learn the learning model. The score S for each category is set such that the score of the category to which the teacher data belongs is 1 and the scores of the other categories are 0.

図4の例では、教師データがカテゴリ2に属する場合を示している。この教師データのスコアSは、カテゴリ2のスコアを1、その他のカテゴリのスコアを0としたS(0,1,0,・・・,0)である。学習部35は、教師データ及びスコアSを学習モデルに与える。そして、学習部35は、教師データを入力層から順伝播させ、出力層の出力信号とスコアSとの間の誤差信号を求め、誤差信号を出力層から逆伝播させることで、重み等のパラメータを更新する。   The example of FIG. 4 shows a case where the teacher data belongs to category 2. The score S of the teacher data is S (0, 1, 0,..., 0) where the score of category 2 is 1 and the scores of other categories are 0. The learning unit 35 gives the teacher data and the score S to the learning model. Then, the learning unit 35 forwardly propagates the teacher data from the input layer, obtains an error signal between the output signal of the output layer and the score S, and reverse propagates the error signal from the output layer, thereby obtaining parameters such as weights. To update.

これにより、修正部33にて生成された有用な教師データを用いて学習が行われるから、分類精度の高い学習モデルに更新することができ、画像分類部30における分類精度を高めることができる。   Thereby, learning is performed using the useful teacher data generated by the correction unit 33, so that the learning model can be updated to a learning model with high classification accuracy, and the classification accuracy in the image classification unit 30 can be increased.

図1及び図3に戻って、画像収集装置2及び画像分類装置3によるステップS301〜S307の処理は、ステップS300の処理に従い、繰り返し行われる。   Returning to FIGS. 1 and 3, the processing of steps S301 to S307 by the image collection device 2 and the image classification device 3 is repeatedly performed according to the processing of step S300.

これにより、修正部33により生成される教師データが逐次的に増えると共に、画像分類部30による分類処理の精度を高めることができる。   Thereby, the teacher data generated by the correction unit 33 is sequentially increased, and the accuracy of the classification process by the image classification unit 30 can be improved.

〔画像分類部30〕
次に、図1に示した画像分類装置3の画像分類部30について詳細に説明する。図7は、画像分類部30の処理例を示すフローチャートである。
[Image Classification Unit 30]
Next, the image classification unit 30 of the image classification device 3 shown in FIG. 1 will be described in detail. FIG. 7 is a flowchart illustrating a processing example of the image classification unit 30.

画像分類部30は、スケジューラ36から分類開始指示を入力したか否かを判定する(ステップS701)。画像分類部30は、ステップS701において、分類開始指示を入力していないと判定した場合(ステップS701:N)、分類開始指示を入力するまで待つ。分類開始指示は、スケジューラ36が画像分類部30に分類処理を開始させるための信号である。   The image classification unit 30 determines whether a classification start instruction has been input from the scheduler 36 (step S701). When determining that the classification start instruction has not been input in step S701 (step S701: N), the image classification unit 30 waits until the classification start instruction is input. The classification start instruction is a signal for the scheduler 36 to cause the image classification unit 30 to start the classification processing.

一方、画像分類部30は、ステップS701において、分類開始指示を入力したと判定した場合(ステップS701:Y)、画像収集装置2の前処理部22から教師候補画像I1,・・・,INを入力する(ステップS702)。 On the other hand, if the image classification unit 30 determines in step S701 that a classification start instruction has been input (step S701: Y), the preprocessing unit 22 of the image collection device 2 sends the teacher candidate images I 1 ,. N is input (step S702).

画像分類部30は、教師候補画像I1,・・・,INのそれぞれについて、記憶部31に保存された学習モデルを用いて、カテゴリ毎のスコアを推定する(ステップS703)。これにより、教師候補画像I1,・・・,INのそれぞれについて、カテゴリ毎のスコアS1,・・・,SNが得られる。 Image classifying unit 30, the teacher candidate image I 1, · · ·, for each of I N, by using the stored learning model in the storage unit 31, estimates the scores of each category (step S703). Thus, the teacher candidate image I 1, · · ·, for each of I N, the score S 1 for each category, · · ·, S N is obtained.

画像分類部30は、教師候補画像I1,・・・,INのそれぞれについて、カテゴリ毎のスコアのうち最大スコアを特定し、最大スコアのカテゴリを、当該教師候補画像Iのカテゴリに設定する(ステップS704)。 Image classifying unit 30, the teacher candidate image I 1, · · ·, for each of I N, identifies a maximum score among the scores for each category, the category of maximum score is set to the category of the teacher candidate image I (Step S704).

画像分類部30は、教師候補画像I1,・・・,INをカテゴリ毎に分類する(ステップS705)。そして、画像分類部30は、カテゴリ毎に、スコアの低い順に教師候補画像I1,・・・,INをソートすることで、k(k=1,・・・,C)番目のカテゴリについての画像Ik,1,・・・,Ik,Nkを得る(ステップS706)。 The image classifying section 30 classifies the teacher candidate images I 1 ,..., IN for each category (step S705). Then, the image classification section 30, for each category, the teacher candidate image I 1 in ascending order of score, ..., by sorting the I N, k (k = 1 , ···, C) for th category image I k, 1 of, ···, I k, obtain Nk (step S706).

画像分類部30は、カテゴリ毎の分類結果である教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを生成し(ステップS707)、記憶部32に保存する(ステップS708)。 The image classification unit 30 generates teacher candidate images I k, 1 ,..., I k, Nk and scores S k, 1 ,..., S k, N k which are classification results for each category (step S707). ) And store it in the storage unit 32 (step S708).

画像分類部30は、画像収集装置2から入力した教師候補画像I1,・・・,INの分類処理が完了したとして、ステップS701にて入力した分類開始指示に対応する分類完了を、スケジューラ36に出力する(ステップS709)。分類完了は、画像分類部30による分類処理が完了したことを示す信号である。 Image classifying unit 30, the teacher candidate image I 1 inputted from the image acquisition device 2, ..., as the classification process I N is completed, the classification completion corresponding to the classification start instruction input at step S701, the scheduler 36 (step S709). Classification completion is a signal indicating that the classification processing by the image classification unit 30 has been completed.

このように、画像分類部30は、分類開始指示に従い、学習モデルを用いて教師候補画像I1,・・・,INの分類を行い、カテゴリ毎の分類結果である教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを生成し、分類完了を出力する。 In this way, the image classification unit 30, in accordance with the classification start instruction, teacher candidate image I 1 by using a learning model,..., Performs a classification of I N, teacher candidate image I k is the classification results of each category, 1, ···, I k, Nk and score S k, 1, ···, S k, generates Nk, outputs a classification completion.

〔修正部33〕
次に、図1に示した画像分類装置3の修正部33について詳細に説明する。図8は、修正部33の処理例を示すフローチャートである。
[Modification unit 33]
Next, the correction unit 33 of the image classification device 3 shown in FIG. 1 will be described in detail. FIG. 8 is a flowchart illustrating a processing example of the correction unit 33.

修正部33は、スケジューラ36から修正開始指示を入力したか否かを判定する(ステップS801)。修正部33は、ステップS801において、修正開始指示を入力していないと判定した場合(ステップS801:N)、修正開始指示を入力するまで待つ。修正開始指示は、スケジューラ36が修正部33に修正処理を開始させるための信号である。   The correction unit 33 determines whether a correction start instruction has been input from the scheduler 36 (step S801). When determining in step S801 that the correction start instruction has not been input (step S801: N), the correction unit 33 waits until the correction start instruction is input. The correction start instruction is a signal for the scheduler 36 to cause the correction unit 33 to start the correction processing.

一方、修正部33は、ステップS801において、修正開始指示を入力したと判定した場合(ステップS801:Y)、記憶部32から、分類結果であるカテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを読み出す(ステップS802)。 On the other hand, when the correction unit 33 determines in step S801 that a correction start instruction has been input (step S801: Y), the storage unit 32 stores the teacher candidate images I k, 1 ,. , I k, Nk and scores S k, 1 ,..., S k, Nk are read (step S802).

修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番にオペレータに確認を促し、オペレータの操作に従い、必要に応じてカテゴリを修正する(ステップS803)。 The correction unit 33 prompts the operator to confirm in order from the teacher candidate images I k, 1 ,..., I k, Nk having the lower scores S k, 1 ,. According to the operation of the operator, the category is corrected as needed (step S803).

修正部33は、確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’を教師データとして生成し(ステップS804)、これを記憶部34に保存する(ステップS805)。 The correction unit 33 generates teacher candidate images I k, 1 ′ ,..., I k, Nk ′ for each category after confirmation and correction as teacher data (step S804), and stores them in the storage unit. (Step S805).

確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’は、カテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nkのうち、オペレータにより確認が行われた画像のみである。ここで、オペレータにより確認が行われた画像には、その確認によりカテゴリが誤っていると判断され、その後カテゴリが修正された画像、及び、その確認によりカテゴリが正しいと判断され、その後カテゴリが修正されなかった画像が含まれる。 The teacher candidate images I k, 1 ′ ,..., I k, Nk ′ for each category after confirmation and correction are the teacher candidate images I k, 1 ,. Only the images confirmed by the operator. Here, in the image confirmed by the operator, the category is determined to be incorrect by the confirmation, and the image in which the category is corrected thereafter, and the category is determined to be correct by the confirmation, and then the category is corrected. Includes images that were not performed.

修正部33は、画像分類部30により分類されたカテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nkの修正処理が完了したとして、ステップS801にて入力した修正開始指示に対応する修正完了を、スケジューラ36に出力する(ステップS806)。修正完了は、修正部33による修正処理が完了したことを示す信号である。 The correction unit 33 determines that the correction processing of the teacher candidate images I k, 1 ,..., I k, Nk for each category classified by the image classification unit 30 has been completed , and responds to the correction start instruction input in step S801. The corresponding correction completion is output to the scheduler 36 (step S806). The correction completion is a signal indicating that the correction processing by the correction unit 33 has been completed.

このように、修正部33は、修正開始指示に従い、カテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nkの修正を行い、カテゴリ毎の確認修正結果である教師データIk,1’,・・・,Ik,Nk’を生成し、修正完了を出力する。 As described above, the correction unit 33 corrects the teacher candidate images I k, 1 ,..., I k, Nk for each category according to the correction start instruction , and obtains the teacher data I k which is the confirmation correction result for each category. , 1 ′ ,..., Ik, Nk ′ , and outputs correction completion.

尚、修正部33は、ステップS803において、全てのカテゴリの全ての教師候補画像Ik,1,・・・,Ik,Nkを確認修正対象としてもよいし、予め設定された枚数の教師候補画像Ik,1,・・・,Ik,Nkを確認修正対象としてもよい。 Note that, in step S803, the correction unit 33 may set all the teacher candidate images I k, 1 ,..., I k, Nk of all the categories as the check and correction targets, or may set a preset number of teacher candidate images. The images I k, 1 ,..., I k, Nk may be targeted for confirmation and correction.

例えば、オペレータにより、カテゴリ毎に上限枚数が予め設定されているとする。修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番に、上限枚数に到達するまで確認を促し、カテゴリを修正する。 For example, it is assumed that the upper limit number of sheets is set in advance for each category by the operator. The correction unit 33 reaches the upper limit number in order from the teacher candidate images I k, 1 ,..., I k, Nk having the lower scores S k, 1 ,. Prompt for confirmation and correct the category.

また、例えば、オペレータにより、カテゴリ毎にスコアの閾値が予め設定されているとする。修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番に、閾値を下回った画像のみについて確認を促し、カテゴリを修正する。 Further, for example, it is assumed that a score threshold value is set in advance for each category by an operator. Correction unit 33, for each category, the score S k, 1, ···, S k, the image that low teacher candidate image I k of Nk, 1, ···, I k , in order from the Nk, below the threshold Prompt for confirmation only and correct the category.

また、スケジューラ36が、修正部33により処理が行われる確認修正対象の枚数を決定するようにしてもよい。例えば、スケジューラ36は、修正部33による修正開始のタイミングにおいて、当該タイミングから学習部35により現在の学習が完了するまでの時間を推定する。そして、スケジューラ36は、修正部33が当該時間の経過するタイミングで修正処理を完了するように、確認修正対象の枚数を決定し、確認修正対象の枚数を修正部33に出力する。修正部33は、確認修正対象の枚数をカテゴリの数で除算し、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番に、除算結果の枚数に到達するまで確認を促し、カテゴリを修正する。 Further, the scheduler 36 may determine the number of sheets to be checked and corrected by the correction unit 33. For example, the scheduler 36 estimates the time from when the correction is started by the correction unit 33 to when the learning unit 35 completes the current learning. Then, the scheduler 36 determines the number of confirmation correction targets and outputs the number of confirmation correction targets to the correction unit 33 so that the correction unit 33 completes the correction processing at the timing when the time elapses. The correction unit 33 divides the number of objects to be checked and corrected by the number of categories, and for each category, a teacher candidate image I k, 1 ,... Having a low score S k, 1 ,. Confirmation is urged in order from Ik, Nk until the number of division results is reached, and the category is corrected.

具体的には、スケジューラ36は、後述する学習開始指示を学習部35に出力してから、学習部35から後述する学習完了を入力するまでの間の時間を求め、当該時間を教師データの数で除算することで1教師データあたりの学習時間を集計し、平均を算出して1教師データあたりの学習時間を推定する。スケジューラ36は、推定した1教師データあたりの学習時間を保持する。   Specifically, the scheduler 36 obtains a time from outputting a learning start instruction described later to the learning unit 35 to inputting a learning completion described later from the learning unit 35, and calculates the time as the number of teacher data. The learning time per teacher data is totalized by dividing by, and the average is calculated to estimate the learning time per teacher data. The scheduler 36 holds the estimated learning time per one teacher data.

また、スケジューラ36は、修正指示開始を修正部33に出力してから、修正部33から修正完了を入力するまでの間の時間を求め、当該時間を確認修正が行われた画像の枚数で除算することで1画像あたりの修正時間を集計し、平均を算出して1画像あたりの修正時間を推定する。スケジューラ36は、推定した1画像あたりの修正時間を保持する。   In addition, the scheduler 36 obtains the time from when the correction instruction start is output to the correction unit 33 to when the correction completion is input from the correction unit 33, and divides the time by the number of images that have been checked and corrected. Then, the correction time per image is totaled, the average is calculated, and the correction time per image is estimated. The scheduler 36 holds the estimated correction time per image.

スケジューラ36は、修正部33による修正開始のタイミングにおいて、学習部35から、現在の学習における残りの教師データの数を入力し、残りの教師データの数に、保持している1教師データあたりの学習時間を乗算することで、当該タイミングから現在の学習が完了するまでの時間を推定する。   The scheduler 36 inputs the number of remaining teacher data in the current learning from the learning unit 35 at the time of the start of the correction by the correction unit 33, and adds the number of remaining teacher data to the number of remaining teacher data per one teacher data held. By multiplying the learning time, the time from the timing to the completion of the current learning is estimated.

スケジューラ36は、当該タイミングから現在の学習が完了するまでの時間を、保持している1画像あたりの修正時間で除算することで、確認修正対象の枚数を決定する。   The scheduler 36 determines the number of sheets to be checked and corrected by dividing the time from the timing to the completion of the current learning by the held correction time per image.

また、修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkが所定の閾値以上の教師候補画像Ik,1,・・・,Ik,Nkを特定し、特定した画像の一部をランダムに選択して、確認修正対象の画像に加えるようにしてもよい。所定の閾値は、オペレータにより予め設定される。 The correction unit 33 also specifies , for each category, teacher candidate images I k, 1 ,..., I k, Nk whose scores S k, 1 ,. Alternatively, a part of the specified image may be randomly selected and added to the image to be checked and corrected. The predetermined threshold is set in advance by the operator.

これにより、スコアの高い画像を教師データとすることができ、スコアに基づいた教師データの偏りを軽減することができる。また、スコアが高いが誤ったカテゴリに分類された画像を修正する可能性を増やすことができる。   As a result, an image with a high score can be used as teacher data, and bias in teacher data based on the score can be reduced. Further, it is possible to increase the possibility of correcting an image having a high score but classified into an incorrect category.

このように、スコアが高いが誤ったカテゴリに分類された画像は、現時点の学習モデルが分類を苦手とする画像であるから、これを教師データとすることで、学習モデルの分類精度を効率的に高めることができる。   As described above, images classified into an incorrect category with a high score are images for which the current learning model is not good at classification, and by using this as teacher data, the classification accuracy of the learning model can be efficiently improved. Can be increased.

〔学習部35〕
次に、図1に示した画像分類装置3の学習部35について詳細に説明する。図9は、学習部35の処理例を示すフローチャートである。
[Learning unit 35]
Next, the learning unit 35 of the image classification device 3 shown in FIG. 1 will be described in detail. FIG. 9 is a flowchart illustrating a processing example of the learning unit 35.

学習部35は、スケジューラ36から学習開始指示を入力したか否かを判定する(ステップS901)。学習部35は、ステップS901において、学習開始指示を入力していないと判定した場合(ステップS901:N)、学習開始指示を入力するまで待つ。学習開始指示は、スケジューラ36が学習部35に学習処理を開始させるための信号である。   The learning unit 35 determines whether a learning start instruction has been input from the scheduler 36 (step S901). When determining that the learning start instruction has not been input in step S901 (step S901: N), the learning unit 35 waits until the learning start instruction is input. The learning start instruction is a signal by which the scheduler 36 causes the learning unit 35 to start the learning process.

一方、学習部35は、ステップS901において、学習開始指示を入力したと判定した場合(ステップS901:Y)、記憶部34から、カテゴリ毎の教師データIk,1’,・・・,Ik,Nk’を読み出す(ステップS902)。 On the other hand, the learning section 35, in step S901, the case where it is determined that the input learning start instruction (step S901: Y), from the storage unit 34, the teacher data I k, 1 for each category ', · · ·, I k , Nk ′ are read (step S902).

学習部35は、教師データIk,1’,・・・,Ik,Nk’のそれぞれについて、当該画像の属するカテゴリのスコアを1に設定すると共に、それ以外のスコアを0に設定することで、スコアSを生成する(ステップS903)。 The learning unit 35 sets, for each of the teacher data I k, 1 ′ ,..., I k, Nk ′ , the score of the category to which the image belongs to 1 and sets the other scores to 0. Then, a score S is generated (step S903).

学習部35は、教師データIk,1’,・・・,Ik,Nk’のそれぞれを入力データとし、カテゴリ毎のスコアSを正解データとして、学習モデルの学習を行う(ステップS904)。 The learning unit 35 learns a learning model using each of the teacher data I k, 1 ′ ,..., I k, Nk ′ as input data and the score S for each category as correct data (step S904).

学習部35は、修正部33により確認修正されたカテゴリ毎の教師データIk,1’,・・・,Ik,Nk’を用いた学習処理が完了したとして、ステップS901にて入力した学習開始指示に対応する学習完了を、スケジューラ36に出力する(ステップS905)。学習完了は、学習部35による学習処理が完了したことを示す信号である。 The learning unit 35 determines that the learning process using the teacher data I k, 1 ′ ,..., I k, Nk ′ for each category that has been confirmed and corrected by the correction unit 33 is completed, and the learning input in step S901. The completion of learning corresponding to the start instruction is output to the scheduler 36 (step S905). The learning completion is a signal indicating that the learning processing by the learning unit 35 has been completed.

このように、学習部35は、学習開始指示に従い、カテゴリ毎の教師データIk,1’,・・・,Ik,Nk’を用いた学習を行い、学習モデルを更新し、学習完了を出力する。 As described above, the learning unit 35 performs learning using the teacher data I k, 1 ′ ,..., I k, Nk ′ for each category according to the learning start instruction, updates the learning model, and completes the learning. Output.

尚、学習部35は、ステップS903,S904において、記憶部34から読み出したカテゴリ毎の教師データIk,1’,・・・,Ik,Nk’に加え、今までの学習に用いた教師データも併せて、学習対象の教師データとしてもよい。 Note that the learning unit 35 adds the teacher data I k, 1 ′ ,..., I k, Nk ′ for each category read from the storage unit 34 and the teachers used in the learning so far in steps S903 and S904. The data may also be used as teacher data to be learned.

これにより、過去の学習に用いた教師データを今回の学習の教師データとして、学習モデルの学習が行われる。過去の学習に用いた教師データを今回の学習の教師データとしない場合には、当該教師データの画像についての分類精度が低下してしまう。そこで、過去の学習に用いた教師データも今回の学習の教師データに含めることにより、当該画像の分類精度を低下させないようにできる。   As a result, learning of the learning model is performed using the teacher data used for the past learning as the teacher data for the current learning. If the teacher data used for the past learning is not used as the teacher data for the current learning, the classification accuracy of the image of the teacher data decreases. Therefore, by including the teacher data used in the past learning in the teacher data in the current learning, the classification accuracy of the image can be prevented from being reduced.

つまり、過去の学習に用いた教師データを今回の学習の教師データに含めることは、当該画像の分類精度を低下させない点で、有用な教師データであるといえる。これにより、学習モデルの分類精度を効率的に高めることができる。   In other words, it can be said that including teacher data used for past learning in teacher data for current learning is useful teacher data in that the classification accuracy of the image is not reduced. Thereby, the classification accuracy of the learning model can be efficiently increased.

また、学習部35は、オペレータにより予め設定された教師データ毎の使用率設定値に基づいて、教師データを選択するようにしてもよい。例えば、学習部35は、使用率設定値50%の教師データについて、2回の学習処理のうち1回について、当該教師データを間引く(除外する)ようにする。これにより、使用率設定値に応じて、学習に用いる教師データを間引くことができ、教師データの増加による学習時間の増大を緩和させることができる。   The learning unit 35 may select the teacher data based on the usage rate setting value for each teacher data set in advance by the operator. For example, the learning unit 35 thins out (excludes) the teacher data with respect to the teacher data with the usage rate set value of 50% in one of the two learning processes. As a result, teacher data used for learning can be thinned out according to the usage rate setting value, and an increase in learning time due to an increase in teacher data can be reduced.

〔スケジューラ36〕
次に、図1に示した画像分類装置3のスケジューラ36について詳細に説明する。図10は、スケジューラ36による並行処理例を説明する図であり、下へ向けて時間が経過するものとする。前述のとおり、スケジューラ36は、画像収集部20、前処理部22、画像分類部30、修正部33及び学習部35の動作を統括制御し、処理開始のタイミングを指示することで、これらの処理を並行して行わせる。
[Scheduler 36]
Next, the scheduler 36 of the image classification device 3 shown in FIG. 1 will be described in detail. FIG. 10 is a diagram for explaining an example of parallel processing by the scheduler 36, and it is assumed that time elapses downward. As described above, the scheduler 36 totally controls the operations of the image collection unit 20, the preprocessing unit 22, the image classification unit 30, the correction unit 33, and the learning unit 35, and instructs the timing of the processing to perform these processing. Are performed in parallel.

図10を参照して、まず時間帯T1において、画像収集部20及び前処理部22が教師候補画像A1の処理を行っており、このときに並行して、学習部35が教師データD1を用いて学習モデルを学習する処理を行っているものとする。   Referring to FIG. 10, first, in time zone T1, image collection unit 20 and preprocessing unit 22 perform processing of teacher candidate image A1, and at this time, learning unit 35 uses teacher data D1. It is assumed that a process for learning a learning model is performed.

学習部35による教師データD1の処理が完了し、画像収集部20及び前処理部22による教師候補画像A1の処理が完了すると、時間帯T2において、画像分類部30は、教師候補画像A1に基づき、学習モデルを用いて分類結果B1を生成する処理を行う。また、時間帯T2,T3において、画像収集部20及び前処理部22は、次の教師候補画像A2の処理を行う。   When the processing of the teacher data D1 by the learning unit 35 is completed, and the processing of the teacher candidate image A1 by the image collection unit 20 and the preprocessing unit 22 is completed, in the time zone T2, the image classifying unit 30 , A process of generating the classification result B1 using the learning model. In the time zones T2 and T3, the image collection unit 20 and the preprocessing unit 22 perform processing of the next teacher candidate image A2.

この場合、画像分類部30による学習モデルを用いた処理と、学習部35による学習モデルを学習する処理とは、同時に並行して実行することができない。1つの学習モデルについて、その利用及び学習を同時に実行できないからである。つまり、画像分類部30による処理は、学習部35による処理の完了を待って行われ、学習部35による処理は、画像分類部30による処理の完了を待って行われる。   In this case, the process using the learning model by the image classifying unit 30 and the process of learning the learning model by the learning unit 35 cannot be performed simultaneously and in parallel. This is because the use and learning cannot be performed simultaneously for one learning model. That is, the process by the image classifying unit 30 is performed after the completion of the process by the learning unit 35, and the process by the learning unit 35 is performed after the process by the image classifying unit 30 is completed.

画像分類部30による学習モデルを用いた分類結果B1を生成する処理が完了すると、時間帯T3,T4において、修正部33は、分類結果B1に基づいて教師データC1を生成する処理を行う。また、時間帯T3において、学習部35は、教師データD2を用いて学習モデルを学習する処理を行う。   When the process of generating the classification result B1 using the learning model by the image classification unit 30 is completed, in the time zones T3 and T4, the correction unit 33 performs a process of generating the teacher data C1 based on the classification result B1. In the time zone T3, the learning unit 35 performs a process of learning a learning model using the teacher data D2.

学習部35による教師データD2の処理が完了し、画像収集部20及び前処理部22による教師候補画像A2の処理が完了すると、時間帯T4において、画像分類部30は、教師候補画像A2に基づき、学習モデルを用いて分類結果B2を生成する処理を行う。また、時間帯T4,T5において、画像収集部20及び前処理部22は、次の教師候補画像A3の処理を行う。   When the processing of the teacher data D2 by the learning unit 35 is completed, and the processing of the teacher candidate image A2 by the image collection unit 20 and the preprocessing unit 22 is completed, in the time zone T4, the image classifying unit 30 , A process of generating the classification result B2 using the learning model. In the time zones T4 and T5, the image collection unit 20 and the preprocessing unit 22 perform processing of the next teacher candidate image A3.

修正部33による教師データC1を生成する処理が完了し、画像分類部30による学習モデルを用いた分類結果B2を生成する処理が完了すると、時間帯T5,T6において、修正部33は、分類結果B2に基づいて教師データC2を生成する処理を行う。また、時間帯T5において、学習部35は、教師データC1を用いて学習モデルを学習する処理を行う。   When the process of generating the teacher data C1 by the correction unit 33 is completed and the process of generating the classification result B2 using the learning model by the image classification unit 30 is completed, in the time zones T5 and T6, the correction unit 33 A process of generating teacher data C2 based on B2 is performed. In the time zone T5, the learning unit 35 performs a process of learning a learning model using the teacher data C1.

学習部35による教師データC1の処理が完了し、画像収集部20及び前処理部22による教師候補画像A3の処理が完了すると、時間帯T6において、画像分類部30は、教師候補画像A3に基づき、学習モデルを用いて分類結果B3を生成する処理を行う。また、時間帯T6,T7において、画像収集部20及び前処理部22は、次の教師候補画像A4の処理を行う。   When the processing of the teacher data C1 by the learning unit 35 is completed and the processing of the teacher candidate image A3 by the image collection unit 20 and the preprocessing unit 22 are completed, in the time zone T6, the image classifying unit 30 , A process of generating the classification result B3 using the learning model. In the time zones T6 and T7, the image collection unit 20 and the preprocessing unit 22 perform processing of the next teacher candidate image A4.

修正部33による教師データC2を生成する処理が完了し、画像分類部30による学習モデルを用いた分類結果B3を生成する処理が完了すると、時間帯T7,T8において、修正部33は、分類結果B3に基づいて教師データC3を生成する処理を行う。また、時間帯T7において、学習部35は、教師データC2を用いて学習モデルを学習する処理を行う。   When the process of generating the teacher data C2 by the correction unit 33 is completed and the process of generating the classification result B3 using the learning model by the image classification unit 30 is completed, in the time zones T7 and T8, the correction unit 33 outputs the classification result. A process of generating teacher data C3 based on B3 is performed. In the time period T7, the learning unit 35 performs a process of learning a learning model using the teacher data C2.

このように、画像収集部20及び前処理部22は、教師候補画像の処理が完了すると、次の教師候補画像の処理を行う。そして、画像分類部30は、画像収集部20及び前処理部22の処理の完了を待って処理を行い、修正部33は、画像分類部30の処理の完了を待って処理を行い、学習部35は、修正部33の処理の完了を待って処理を行う。
この場合、画像分類部30及び学習部35は、同じ学習モデルにアクセスすることから、同時に動作することはない(図10の斜線の箇所を参照)。
As described above, when the processing of the teacher candidate image is completed, the image collection unit 20 and the preprocessing unit 22 perform the processing of the next teacher candidate image. Then, the image classification unit 30 performs the processing after the completion of the processing of the image collection unit 20 and the preprocessing unit 22, and the correction unit 33 performs the processing after the completion of the processing of the image classification unit 30. The processing 35 waits for the completion of the processing of the correction unit 33 and performs the processing.
In this case, since the image classification unit 30 and the learning unit 35 access the same learning model, they do not operate at the same time (see the hatched portions in FIG. 10).

図11は、スケジューラ36による画像収集部20及び前処理部22の制御例を示すフローチャートである。スケジューラ36は、収集開始指示を画像収集部20に出力する(ステップS1101)。収集開始指示は、スケジューラ36が画像収集部20に収集処理を開始させるための信号である。   FIG. 11 is a flowchart illustrating an example of control of the image collection unit 20 and the preprocessing unit 22 by the scheduler 36. The scheduler 36 outputs a collection start instruction to the image collection unit 20 (Step S1101). The acquisition start instruction is a signal by which the scheduler 36 causes the image acquisition unit 20 to start an acquisition process.

これにより、画像収集部20にて、教師候補画像の収集が行われ、その後前処理部22にて、当該教師候補画像の前処理が行われる。そして、前処理部22は、教師候補画像の前処理を完了すると、収集及び前処理完了をスケジューラ36に出力する。または、画像収集部20は、教師候補画像の収集を完了すると、収集完了をスケジューラ36に出力し、前処理部22は、教師候補画像の前処理を完了すると、前処理完了をスケジューラ36に出力する。   As a result, the image collection unit 20 collects the teacher candidate images, and then the preprocessing unit 22 performs preprocessing of the teacher candidate images. When completing the preprocessing of the teacher candidate image, the preprocessing unit 22 outputs the collection and the preprocessing completion to the scheduler 36. Alternatively, when completing the collection of the teacher candidate images, the image collection unit 20 outputs the completion of the collection to the scheduler 36, and when completing the preprocessing of the teacher candidate images, the preprocessing unit 22 outputs the completion of the preprocessing to the scheduler 36. I do.

スケジューラ36は、前処理部22から収集及び前処理完了を入力したか否か(または、画像収集部20から収集完了を入力し、かつ前処理部22から前処理完了を入力したか否か)を判定する(ステップS1102)。   The scheduler 36 determines whether or not the collection and the preprocessing completion are input from the preprocessing unit 22 (or whether or not the collection completion is input from the image collection unit 20 and the preprocessing completion is input from the preprocessing unit 22). Is determined (step S1102).

スケジューラ36は、ステップS1102において、収集及び前処理完了を入力したと判定した場合(ステップS1102:Y)、ステップS1103へ移行する。一方、スケジューラ36は、ステップS1102において、収集及び前処理完了を入力していないと判定した場合(ステップS1102:N)、収集及び前処理完了を入力するまで待つ。   If the scheduler 36 determines in step S1102 that collection and preprocessing completion have been input (step S1102: Y), the process proceeds to step S1103. On the other hand, if the scheduler 36 determines in step S1102 that collection and preprocessing completion have not been input (step S1102: N), the scheduler 36 waits until collection and preprocessing completion is input.

スケジューラ36は、当該スケジューラ36による画像収集部20及び前処理部22の制御を終了するか否か(所定の終了の条件を満たしているか否か)を判定する(ステップS1103)。スケジューラ36は、ステップS1103において、制御を終了しないと判定した場合(ステップS1103:N)、ステップS1101へ移行し、次の収集開始指示を画像収集部20に出力する。   The scheduler 36 determines whether to end the control of the image collection unit 20 and the preprocessing unit 22 by the scheduler 36 (whether or not a predetermined end condition is satisfied) (step S1103). If the scheduler 36 determines in step S1103 that the control is not to be ended (step S1103: N), the process proceeds to step S1101, and outputs the next acquisition start instruction to the image acquisition unit 20.

これにより、画像収集部20にて、次の教師候補画像の収集が行われ、その後前処理部22にて、当該次の教師候補画像の前処理が行われる。   Thus, the image collection unit 20 collects the next teacher candidate image, and then the pre-processing unit 22 performs pre-processing of the next teacher candidate image.

一方、スケジューラ36は、ステップS1103において、制御を終了すると判定した場合(ステップS1103:Y)、当該制御を終了する。   On the other hand, when the scheduler 36 determines in step S1103 to end the control (step S1103: Y), the control ends.

図12は、スケジューラ36による画像分類部30の制御例を示すフローチャートである。スケジューラ36は、画像収集部20及び前処理部22による教師候補画像の収集及び前処理が完了済みであるか否かを判定する(ステップS1201)。また、スケジューラ36は、学習部35による教師データを用いた学習モデルの学習が完了済みであるか否かを判定する(ステップS1202)。   FIG. 12 is a flowchart illustrating an example of control of the image classification unit 30 by the scheduler 36. The scheduler 36 determines whether the collection and preprocessing of the teacher candidate images by the image collection unit 20 and the preprocessing unit 22 have been completed (step S1201). Further, the scheduler 36 determines whether or not the learning of the learning model using the teacher data by the learning unit 35 has been completed (step S1202).

スケジューラ36は、ステップS1201において収集及び前処理が完了済みでない、またはステップS1202において学習が完了済みでないと判定した場合(ステップS1201:N、またはステップS1202:N)、完了済みとなるまで待つ。   When the scheduler 36 determines that the collection and the pre-processing have not been completed in Step S1201 or that the learning has not been completed in Step S1202 (Step S1201: N or Step S1202: N), the scheduler 36 waits until it is completed.

一方、スケジューラ36は、ステップS1201において収集及び前処理が完了済みであり、かつステップS1202において学習が完了済みであると判定した場合(ステップS1201:Y、かつステップS1202:Y)、分類開始指示を画像分類部30に出力する(ステップS1203)。   On the other hand, if the scheduler 36 determines that the collection and the pre-processing have been completed in step S1201 and the learning has been completed in step S1202 (step S1201: Y and step S1202: Y), the scheduler 36 issues a classification start instruction. The image is output to the image classifying unit 30 (step S1203).

これにより、画像分類部30にて、学習モデルを用いた教師候補画像の分類が行われる。そして、画像分類部30は、教師候補画像の分類を完了すると、分類完了をスケジューラ36に出力する。   Thereby, the image classification unit 30 classifies the teacher candidate images using the learning model. Then, when the classification of the teacher candidate images is completed, the image classification unit 30 outputs the classification completion to the scheduler 36.

スケジューラ36は、画像分類部30から分類完了を入力したか否かを判定する(ステップS1204)。   The scheduler 36 determines whether classification completion has been input from the image classification unit 30 (step S1204).

スケジューラ36は、ステップS1204において、分類完了を入力したと判定した場合(ステップS1204:Y)、ステップS1205へ移行する。一方、スケジューラ36は、ステップS1204において、分類完了を入力していないと判定した場合(ステップS1204:N)、分類完了を入力するまで待つ。   If the scheduler 36 determines in step S1204 that classification completion has been input (step S1204: Y), the process proceeds to step S1205. On the other hand, if the scheduler 36 determines in step S1204 that classification completion has not been input (step S1204: N), the scheduler 36 waits until classification completion is input.

スケジューラ36は、当該スケジューラ36による画像分類部30の制御を終了するか否か(所定の終了の条件を満たしているか否か)を判定する(ステップS1205)。スケジューラ36は、ステップS1205において、制御を終了しないと判定した場合(ステップS1205:N)、ステップS1201へ移行し、次の分類開始指示を出力する条件を満たすか否かを判定する。   The scheduler 36 determines whether to end the control of the image classification unit 30 by the scheduler 36 (whether or not a predetermined end condition is satisfied) (step S1205). If the scheduler 36 determines in step S1205 that the control is not to be ended (step S1205: N), the process proceeds to step S1201, and determines whether the condition for outputting the next classification start instruction is satisfied.

一方、スケジューラ36は、ステップS1205において、制御を終了すると判定した場合(ステップS1205:Y)、当該制御を終了する。   On the other hand, when the scheduler 36 determines in step S1205 to end the control (step S1205: Y), the control ends.

図13は、スケジューラ36による修正部33の制御例を示すフローチャートである。スケジューラ36は、画像分類部30による教師候補画像の分類処理が完了済みであるか否かを判定する(ステップS1301)。   FIG. 13 is a flowchart illustrating an example of control of the correction unit 33 by the scheduler 36. The scheduler 36 determines whether the classification processing of the teacher candidate images by the image classification unit 30 has been completed (step S1301).

スケジューラ36は、ステップS1301において、分類処理が完了済みでないと判定した場合(ステップS1301:N)、完了済みとなるまで待つ。   If the scheduler 36 determines in step S1301 that the classification process has not been completed (step S1301: N), the scheduler 36 waits until it is completed.

一方、スケジューラ36は、ステップS1301において、分類処理が完了済みであると判定した場合(ステップS1301:Y)、修正開始指示を修正部33に出力する(ステップS1302)。   On the other hand, when determining in step S1301 that the classification process has been completed (step S1301: Y), the scheduler 36 outputs a correction start instruction to the correction unit 33 (step S1302).

これにより、修正部33にて、分類結果を用いた修正処理が行われる。そして、修正部33は、修正処理を完了して教師データを生成すると、修正完了をスケジューラ36に出力する。   As a result, the correction unit 33 performs a correction process using the classification result. When the correction unit 33 completes the correction processing and generates the teacher data, the correction unit 33 outputs the correction completion to the scheduler 36.

スケジューラ36は、修正部33から修正完了を入力したか否かを判定する(ステップS1303)。   The scheduler 36 determines whether or not correction completion has been input from the correction unit 33 (step S1303).

スケジューラ36は、ステップS1303において、修正完了を入力したと判定した場合(ステップS1303:Y)、ステップS1304へ移行する。一方、スケジューラ36は、ステップS1303において、修正完了を入力していないと判定した場合(ステップS1303:N)、修正完了を入力するまで待つ。   If the scheduler 36 determines in step S1303 that correction completion has been input (step S1303: Y), the process proceeds to step S1304. On the other hand, if the scheduler 36 determines in step S1303 that correction completion has not been input (step S1303: N), the scheduler 36 waits until correction completion is input.

スケジューラ36は、当該スケジューラ36による修正部33の制御を終了するか否か(所定の終了の条件を満たしているか否か)を判定する(ステップS1304)。スケジューラ36は、ステップS1304において、制御を終了しないと判定した場合(ステップS1304:N)、ステップS1301へ移行し、次の修正開始指示を出力する条件を満たすか否かを判定する。   The scheduler 36 determines whether to end the control of the correction unit 33 by the scheduler 36 (whether or not a predetermined end condition is satisfied) (step S1304). If it is determined in step S1304 that the control is not to be ended (step S1304: N), the scheduler 36 proceeds to step S1301, and determines whether or not the condition for outputting the next correction start instruction is satisfied.

一方、スケジューラ36は、ステップS1304において、制御を終了すると判定した場合(ステップS1304:Y)、当該制御を終了する。   On the other hand, when the scheduler 36 determines in step S1304 to end the control (step S1304: Y), the control ends.

図14は、スケジューラ36による学習部35の制御例を示すフローチャートである。スケジューラ36は、修正部33による分類結果の修正が完了済み(教師データの生成が完了済み)であるか否かを判定する(ステップS1401)。また、スケジューラ36は、画像分類部30による教師データを用いた分類が完了済みであるか否かを判定する(ステップS1402)。   FIG. 14 is a flowchart illustrating an example of control of the learning unit 35 by the scheduler 36. The scheduler 36 determines whether or not the correction of the classification result by the correction unit 33 has been completed (generation of teacher data has been completed) (step S1401). Further, the scheduler 36 determines whether the classification using the teacher data by the image classification unit 30 has been completed (step S1402).

スケジューラ36は、ステップS1401において修正が完了済みでない、またはステップS1402において分類が完了済みでないと判定した場合(ステップS1401:N、またはステップS1402:N)、完了済みとなるまで待つ。   If the scheduler 36 determines that the correction has not been completed in step S1401 or that the classification has not been completed in step S1402 (step S1401: N or step S1402: N), the scheduler 36 waits until the correction is completed.

一方、スケジューラ36は、ステップS1401において修正が完了済みであり、かつステップS1402において分類が完了済みであると判定した場合(ステップS1401:Y、かつステップS1402:Y)、学習開始指示を学習部35に出力する(ステップS1403)。   On the other hand, if the scheduler 36 determines that the modification has been completed in step S1401 and the classification has been completed in step S1402 (step S1401: Y and step S1402: Y), the learning unit 35 issues a learning start instruction. (Step S1403).

これにより、学習部35にて、教師データを用いた学習モデルの学習が行われる。そして、学習部35は、学習を完了すると、学習完了をスケジューラ36に出力する。   Thus, the learning unit 35 learns the learning model using the teacher data. When the learning unit 35 completes the learning, the learning unit 35 outputs the learning completion to the scheduler 36.

スケジューラ36は、学習部35から学習完了を入力したか否かを判定する(ステップS1404)。   The scheduler 36 determines whether learning completion has been input from the learning unit 35 (step S1404).

スケジューラ36は、ステップS1404において、学習完了を入力したと判定した場合(ステップS1404:Y)、ステップS1405へ移行する。一方、スケジューラ36は、ステップS1404において、学習完了を入力していないと判定した場合(ステップS1404:N)、学習完了を入力するまで待つ。   If the scheduler 36 determines in step S1404 that learning completion has been input (step S1404: Y), the process proceeds to step S1405. On the other hand, if it is determined in step S1404 that learning completion has not been input (step S1404: N), the scheduler 36 waits until learning completion is input.

スケジューラ36は、当該スケジューラ36による学習部35の制御を終了するか否か(所定の終了の条件を満たしているか否か)を判定する(ステップS1405)。スケジューラ36は、ステップS1405において、制御を終了しないと判定した場合(ステップS1405:N)、ステップS1401へ移行し、次の学習開始指示を出力する条件を満たすか否かを判定する。   The scheduler 36 determines whether to end the control of the learning unit 35 by the scheduler 36 (whether or not a predetermined end condition is satisfied) (step S1405). If it is determined in step S1405 that the control is not to be ended (step S1405: N), the scheduler 36 proceeds to step S1401, and determines whether the condition for outputting the next learning start instruction is satisfied.

一方、スケジューラ36は、ステップS1405において、制御を終了すると判定した場合(ステップS1405:Y)、当該制御を終了する。   On the other hand, when the scheduler 36 determines in step S1405 to end the control (step S1405: Y), the control ends.

このように、スケジューラ36は、画像収集部20、前処理部22、画像分類部30、修正部33及び学習部35におけるそれぞれの動作を統括制御し、これらの処理を並行して行わせる。   As described above, the scheduler 36 controls the respective operations of the image collection unit 20, the preprocessing unit 22, the image classification unit 30, the correction unit 33, and the learning unit 35, and causes these processes to be performed in parallel.

これにより、全体の処理時間を短縮することができ、1サイクルあたりの時間(画像収集部20がN枚の教師候補画像I1,・・・,INを収集してから学習部35が学習モデルの学習を行うまでの間の処理時間)を削減することができる。 Thus, it is possible to shorten the overall processing time, the teacher candidate image I 1 of the time (the image acquisition unit 20 of the N sheets per cycle, ..., learning unit 35 collects I N learning The processing time until the model is learned can be reduced.

以上のように、本発明の実施形態の画像分類装置3によれば、画像分類部30は、教師候補画像I1,・・・,INのそれぞれについて、学習モデルを用いてカテゴリ毎のスコアを推定し、最大スコアのカテゴリに分類する。そして、画像分類部30は、カテゴリ毎に、スコアの低い順に教師候補画像I1,・・・,INをソートすることで、画像Ik,1,・・・,Ik,Nkを得る。画像分類部30は、カテゴリ毎の分類結果である教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを生成する。 As described above, according to the image classification device 3 of the embodiment of the present invention, the image classifying unit 30, the teacher candidate image I 1, · · ·, for each of I N, scores for each category using a learning model And classify it into the category with the highest score. Then, the image classification section 30 obtains for each category, the teacher candidate image I 1 to a low score order, ..., by sorting the I N, the image I k, 1, ..., I k, the Nk . The image classification unit 30 generates teacher candidate images I k, 1 ,..., I k, Nk and scores S k, 1 ,.

修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番にオペレータに確認を促し、オペレータの操作に従い、必要に応じてカテゴリを修正し、確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’を教師データとする。学習部35は、カテゴリ毎の教師データを用いて学習モデルの学習を行う。 The correction unit 33 prompts the operator to confirm in order from the teacher candidate images I k, 1 ,..., I k, Nk having the lower scores S k, 1 ,. According to the operation of the operator, the category is corrected as necessary, and the teacher candidate images I k, 1 ′ ,..., I k, Nk ′ for each category after confirmation and correction are used as teacher data. The learning unit 35 learns a learning model using teacher data for each category.

スケジューラ36は、画像収集部20、前処理部22、画像分類部30、修正部33及び学習部35の動作を統括制御し、これらの処理を並行して行わせる。   The scheduler 36 totally controls the operations of the image collection unit 20, the preprocessing unit 22, the image classification unit 30, the correction unit 33, and the learning unit 35, and causes these processes to be performed in parallel.

これにより、学習モデルを用いた分類結果に対し、オペレータによる修正が行われ、学習に用いる教師データが生成されるから、人手により教師データが収集される場合に比べ、有用な教師データを収集するための労力及び時間を低減することができる。   As a result, the classification result using the learning model is corrected by the operator, and teacher data used for learning is generated. Therefore, useful teacher data is collected as compared with a case where teacher data is collected manually. Labor and time can be reduced.

また、スケジューラ36の制御により、画像の収集及び前処理、学習モデルを用いた分類処理、修正処理、及び学習モデルの学習処理を並行して行うようにしたから、全体の処理時間を短縮し、1サイクルあたりの時間を削減することができる。   Also, under the control of the scheduler 36, image collection and pre-processing, classification processing using a learning model, correction processing, and learning processing of a learning model are performed in parallel, so that the overall processing time is reduced, Time per cycle can be reduced.

一般に、深層学習の教師データとしては、カテゴリ毎に数千から数万枚の画像が必要とされることが多い。本発明の実施形態では、初期学習のために、カテゴリ毎に数百枚の画像を用意すれば済み、その後は処理の労力及び時間を低減しつつ、教師データを必要な量に達するまで収集することができる。   Generally, as the teacher data for deep learning, thousands to tens of thousands of images are often required for each category. In the embodiment of the present invention, it is sufficient to prepare several hundred images for each category for the initial learning, and thereafter, collect the teacher data until the required amount is reached while reducing the processing effort and time. be able to.

以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。前記実施形態では、画像分類装置3はスケジューラ36を備えているが、スケジューラ36を備えていなくてもよい。   As described above, the present invention has been described with reference to the embodiment. However, the present invention is not limited to the above embodiment, and can be variously modified without departing from the technical idea thereof. In the above-described embodiment, the image classification device 3 includes the scheduler 36, but may not include the scheduler 36.

尚、本発明の実施形態による画像分類装置3のハードウェア構成としては、通常のコンピュータを使用することができる。画像分類装置3は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。   Note that an ordinary computer can be used as a hardware configuration of the image classification device 3 according to the embodiment of the present invention. The image classification device 3 is configured by a computer including a CPU, a volatile storage medium such as a RAM, a non-volatile storage medium such as a ROM, and an interface.

画像分類装置3に備えた画像分類部30、記憶部31、記憶部32、修正部33、記憶部34、学習部35及びスケジューラ36の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。   Each function of the image classification unit 30, the storage unit 31, the storage unit 32, the correction unit 33, the storage unit 34, the learning unit 35, and the scheduler 36 provided in the image classification device 3 executes a program describing these functions to the CPU. To be realized.

これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。   These programs are stored in the storage medium, and are read and executed by the CPU. These programs can also be stored in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory or the like, and distributed via a network. You can also send and receive.

本発明の実施形態による画像分類装置3は、画像による状況分析、画像による異常検知、画像による情報整理等において有用である。   The image classification device 3 according to the embodiment of the present invention is useful for analyzing situations using images, detecting abnormalities using images, organizing information using images, and the like.

1 記憶装置
2 画像収集装置
3 画像分類装置
4 伝送路
20 画像収集部
21,31,32,34 記憶部
22 前処理部
30 画像分類部
33 修正部
35 学習部
36 スケジューラ
REFERENCE SIGNS LIST 1 storage device 2 image collection device 3 image classification device 4 transmission path 20 image collection units 21, 31, 32, 34 storage unit 22 preprocessing unit 30 image classification unit 33 correction unit 35 learning unit 36 scheduler

Claims (4)

画像を分類するための学習モデルの学習を行う画像分類装置において、
収集された複数の教師候補画像のそれぞれについて、前記学習モデルを用いてカテゴリ毎のスコアを推定し、前記スコアの最も高いカテゴリに分類し、カテゴリ毎に、前記スコアの低い順に前記複数の教師候補画像をソートし、カテゴリ毎の分類結果を生成する画像分類部と、
前記画像分類部により生成された前記分類結果の前記教師候補画像について、カテゴリ毎に、前記スコアの低い順番にオペレータに確認を促し、前記オペレータの操作に従ってカテゴリを修正し、カテゴリ毎の前記教師候補画像を教師データとして生成する修正部と、
前記修正部により生成されたカテゴリ毎の前記教師データを用いて、前記学習モデルの学習を行う学習部と、
を備えたことを特徴とする画像分類装置。
In an image classification device that learns a learning model for classifying images,
For each of the collected plurality of teacher candidate images, a score for each category is estimated using the learning model, the category is classified into the category having the highest score, and for each category, the plurality of teacher candidates are sorted in ascending order of the score. An image classification unit that sorts images and generates a classification result for each category;
For the teacher candidate image of the classification result generated by the image classifying unit, for each category, the operator is urged to confirm in the order of the score, the category is corrected according to the operation of the operator, and the teacher candidate for each category is corrected. A correction unit that generates an image as teacher data,
A learning unit that learns the learning model using the teacher data for each category generated by the correction unit;
An image classification device comprising:
請求項1に記載の画像分類装置において、
さらに、スケジューラを備え、
前記画像分類部は、
前記複数の教師候補画像を収集する画像収集装置から、前記複数の教師候補画像を入力し、
前記スケジューラは、
前記画像収集装置により前記複数の教師候補画像を収集する収集処理、前記画像分類部により前記分類結果を生成する分類処理、前記修正部により前記教師データを生成する修正処理、及び前記学習部により前記学習モデルの学習を行う学習処理のそれぞれのタイミングを制御すると共に、前記画像分類部による前記分類処理と、前記学習部による前記学習処理とが同時に行われないように、前記分類処理を開始させるための分類開始指示を前記画像分類部に出力し、前記学習処理を開始させるための学習開始指示を前記学習部に出力する、ことを特徴とする画像分類装置。
The image classification device according to claim 1,
In addition, it has a scheduler,
The image classification unit,
From the image collection device that collects the plurality of teacher candidate images, input the plurality of teacher candidate images,
The scheduler comprises:
A collection process of collecting the plurality of teacher candidate images by the image collection device; a classification process of generating the classification result by the image classification unit; a correction process of generating the teacher data by the correction unit; To control the timing of each learning process for learning a learning model, and to start the classification process so that the classification process by the image classification unit and the learning process by the learning unit are not performed simultaneously. The classification start instruction is output to the image classification unit, and a learning start instruction for starting the learning process is output to the learning unit.
請求項2に記載の画像分類装置において、
前記スケジューラは、
前記収集処理を開始させるための収集開始指示を前記画像収集装置に出力し、前記画像収集装置から前記収集処理が完了したことを示す収集完了を入力すると、前記収集処理が完了したことを判定し、
前記画像収集装置による前記収集処理が完了しており、かつ、前記学習部による前記学習処理が完了している場合、前記分類開始指示を前記画像分類部に出力し、前記画像分類部から前記分類処理が完了したことを示す分類完了を入力すると、前記分類処理が完了したことを判定し、
前記分類処理が完了している場合、前記修正処理を開始させるための修正開始指示を前記修正部に出力し、前記修正処理が完了したことを示す修正完了を前記修正部から入力すると、前記修正処理が完了したことを判定し、
前記修正部による前記修正処理が完了しており、かつ、前記画像分類部による前記分類処理が完了している場合、前記学習開始指示を前記学習部に出力し、前記学習部から前記学習処理が完了したことを示す学習完了を入力すると、前記学習処理が完了したことを判定する、ことを特徴とする画像分類装置。
The image classification device according to claim 2,
The scheduler comprises:
A collection start instruction for starting the collection processing is output to the image collection apparatus, and when a collection completion indicating that the collection processing is completed is input from the image collection apparatus, it is determined that the collection processing is completed. ,
If the collection process by the image collection device has been completed, and the learning process by the learning unit has been completed, the classification start instruction is output to the image classification unit, and the classification is performed by the image classification unit. When inputting classification completion indicating that the processing is completed, it is determined that the classification processing is completed,
When the classification process is completed, a correction start instruction for starting the correction process is output to the correction unit, and when a correction completion indicating that the correction process is completed is input from the correction unit, the correction is performed. Judge that the process is completed,
When the correction processing by the correction unit is completed and the classification processing by the image classification unit is completed, the learning start instruction is output to the learning unit, and the learning processing is performed by the learning unit. An image classification device, wherein when learning completion indicating completion is input, it is determined that the learning processing is completed.
コンピュータを、請求項1から3までのいずれか一項に記載の画像分類装置として機能させるためのプログラム。   A program for causing a computer to function as the image classification device according to any one of claims 1 to 3.
JP2018148174A 2018-08-07 2018-08-07 Image classification device and program Active JP7117934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018148174A JP7117934B2 (en) 2018-08-07 2018-08-07 Image classification device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018148174A JP7117934B2 (en) 2018-08-07 2018-08-07 Image classification device and program

Publications (2)

Publication Number Publication Date
JP2020024534A true JP2020024534A (en) 2020-02-13
JP7117934B2 JP7117934B2 (en) 2022-08-15

Family

ID=69618739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018148174A Active JP7117934B2 (en) 2018-08-07 2018-08-07 Image classification device and program

Country Status (1)

Country Link
JP (1) JP7117934B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123330A (en) * 2019-01-30 2020-08-13 株式会社ストラドビジョン Method for acquiring sample image for label acceptance inspection from among auto-labeled images utilized for neural network learning, and sample image acquisition device utilizing the same
WO2021192119A1 (en) * 2020-03-25 2021-09-30 ソニーグループ株式会社 Information processing device, program, and method
JPWO2021192133A1 (en) * 2020-03-26 2021-09-30
CN113706997A (en) * 2021-09-06 2021-11-26 深圳市库思科技有限公司 Urban and rural planning drawing standardization processing method and device and electronic equipment
JP2022072841A (en) * 2020-10-30 2022-05-17 みずほリサーチ&テクノロジーズ株式会社 Model evaluation system, model evaluation method and model evaluation program
WO2022113175A1 (en) * 2020-11-24 2022-06-02 日本電信電話株式会社 Processing method, processing system, and processing program
WO2022196400A1 (en) * 2021-03-19 2022-09-22 公益財団法人実験動物中央研究所 Excrement property estimation model training device, excrement property estimation device, excrement property estimation model training method, excrement property estimation method, and program
CN117194041A (en) * 2023-09-26 2023-12-08 北京强云创新科技有限公司 Parallel optimization method and system for high-performance computer

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256480A (en) * 2000-03-09 2001-09-21 Hitachi Ltd Automatic picture classifying method and its device
US20020102526A1 (en) * 2001-01-29 2002-08-01 Fujitsu Limited Apparatus and method accumulating cases to be learned
JP2011158373A (en) * 2010-02-02 2011-08-18 Dainippon Screen Mfg Co Ltd Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification
JP2016051429A (en) * 2014-09-02 2016-04-11 株式会社Screenホールディングス Teacher data creation support method, image classification method, teacher data creation support device and image classification device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256480A (en) * 2000-03-09 2001-09-21 Hitachi Ltd Automatic picture classifying method and its device
US20020102526A1 (en) * 2001-01-29 2002-08-01 Fujitsu Limited Apparatus and method accumulating cases to be learned
JP2002222083A (en) * 2001-01-29 2002-08-09 Fujitsu Ltd Device and method for instance storage
JP2011158373A (en) * 2010-02-02 2011-08-18 Dainippon Screen Mfg Co Ltd Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification
JP2016051429A (en) * 2014-09-02 2016-04-11 株式会社Screenホールディングス Teacher data creation support method, image classification method, teacher data creation support device and image classification device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020123330A (en) * 2019-01-30 2020-08-13 株式会社ストラドビジョン Method for acquiring sample image for label acceptance inspection from among auto-labeled images utilized for neural network learning, and sample image acquisition device utilizing the same
WO2021192119A1 (en) * 2020-03-25 2021-09-30 ソニーグループ株式会社 Information processing device, program, and method
JPWO2021192133A1 (en) * 2020-03-26 2021-09-30
WO2021192133A1 (en) * 2020-03-26 2021-09-30 日本電気株式会社 Object recognition device, object recognition method, and recording medium
JP7298776B2 (en) 2020-03-26 2023-06-27 日本電気株式会社 OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND PROGRAM
JP7085605B2 (en) 2020-10-30 2022-06-16 みずほリサーチ&テクノロジーズ株式会社 Model evaluation system, model evaluation method and model evaluation program
JP2022072841A (en) * 2020-10-30 2022-05-17 みずほリサーチ&テクノロジーズ株式会社 Model evaluation system, model evaluation method and model evaluation program
WO2022113175A1 (en) * 2020-11-24 2022-06-02 日本電信電話株式会社 Processing method, processing system, and processing program
WO2022196400A1 (en) * 2021-03-19 2022-09-22 公益財団法人実験動物中央研究所 Excrement property estimation model training device, excrement property estimation device, excrement property estimation model training method, excrement property estimation method, and program
CN113706997B (en) * 2021-09-06 2023-06-27 深圳市指跃未来科技有限公司 Urban and rural planning drawing standardization processing method and device and electronic equipment
CN113706997A (en) * 2021-09-06 2021-11-26 深圳市库思科技有限公司 Urban and rural planning drawing standardization processing method and device and electronic equipment
CN117194041A (en) * 2023-09-26 2023-12-08 北京强云创新科技有限公司 Parallel optimization method and system for high-performance computer
CN117194041B (en) * 2023-09-26 2024-03-19 北京强云创新科技有限公司 Parallel optimization method and system for high-performance computer

Also Published As

Publication number Publication date
JP7117934B2 (en) 2022-08-15

Similar Documents

Publication Publication Date Title
JP2020024534A (en) Image classifier and program
CN109934293B (en) Image recognition method, device, medium and confusion perception convolutional neural network
JP6629678B2 (en) Machine learning device
US10867244B2 (en) Method and apparatus for machine learning
CN109816032B (en) Unbiased mapping zero sample classification method and device based on generative countermeasure network
JP6446971B2 (en) Data processing apparatus, data processing method, and computer program
JP2018200685A (en) Forming of data set for fully supervised learning
CN111656373A (en) Training neural network model
CN113407694B (en) Method, device and related equipment for detecting ambiguity of customer service robot knowledge base
CN110310114B (en) Object classification method, device, server and storage medium
KR102264234B1 (en) A document classification method with an explanation that provides words and sentences with high contribution in document classification
JP6973625B2 (en) Learning equipment, learning methods and learning programs
CN111160959B (en) User click conversion prediction method and device
CN113361593B (en) Method for generating image classification model, road side equipment and cloud control platform
KR102103511B1 (en) Code generating apparatus and method
CN114254146A (en) Image data classification method, device and system
CN110458600A (en) Portrait model training method, device, computer equipment and storage medium
CN112420125A (en) Molecular attribute prediction method and device, intelligent equipment and terminal
US20210319269A1 (en) Apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods
CN117492703A (en) Software development method, device and medium based on artificial intelligence
RU2715024C1 (en) Method of trained recurrent neural network debugging
KR102413588B1 (en) Object recognition model recommendation method, system and computer program according to training data
JP2007213441A (en) Multivariable decision tree construction system, multivariable decision tree construction method and program for constructing multivariable decision tree
Riedlinger et al. Uncertainty quantification for object detection: output-and gradient-based approaches
CN111767959A (en) Method and device for classifying pile fibers

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220802

R150 Certificate of patent or registration of utility model

Ref document number: 7117934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150