JP2020024534A - Image classifier and program - Google Patents
Image classifier and program Download PDFInfo
- Publication number
- JP2020024534A JP2020024534A JP2018148174A JP2018148174A JP2020024534A JP 2020024534 A JP2020024534 A JP 2020024534A JP 2018148174 A JP2018148174 A JP 2018148174A JP 2018148174 A JP2018148174 A JP 2018148174A JP 2020024534 A JP2020024534 A JP 2020024534A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- learning
- classification
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012937 correction Methods 0.000 claims abstract description 127
- 230000001174 ascending effect Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 91
- 230000008569 process Effects 0.000 claims description 80
- 238000012545 processing Methods 0.000 claims description 78
- 230000006870 function Effects 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 description 47
- 238000012790 confirmation Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 12
- 238000013135 deep learning Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- YDLQKLWVKKFPII-UHFFFAOYSA-N timiperone Chemical compound C1=CC(F)=CC=C1C(=O)CCCN1CCC(N2C(NC3=CC=CC=C32)=S)CC1 YDLQKLWVKKFPII-UHFFFAOYSA-N 0.000 description 1
- 229950000809 timiperone Drugs 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、コンピュータ及びハードディスクを用いた画像処理分野に属し、特に、収集した画像を分類して教師データを生成し、教師データを用いて学習モデルの学習を行う画像分類装置及びプログラムに関する。 The present invention relates to the field of image processing using a computer and a hard disk, and more particularly to an image classification device and a program for classifying collected images to generate teacher data and learning a learning model using the teacher data.
近年、画像を入力してその分類結果を直接出力するための深層学習が注目を集めている。この技術によれば、深層学習により生成された学習モデルを用いることで、画像の分類のために有用な特徴データを自動的に生成することができる。 In recent years, deep learning for inputting an image and directly outputting a classification result thereof has attracted attention. According to this technique, by using a learning model generated by deep learning, feature data useful for image classification can be automatically generated.
このため、人による特徴データの設計及び選択が不要になるという利点がある。また、人が手動で設計または選択した特徴データを用いて画像を分類するよりも、学習モデルを用いて分類する方が高い精度が得られるという報告がなされている。 For this reason, there is an advantage that the design and selection of the feature data by a person becomes unnecessary. There is also a report that classification using a learning model provides higher accuracy than classification of images using feature data manually designed or selected by a person.
一方で、深層学習を用いた画像分類装置の学習には、画像と正解ラベルとを一組とした大量の教師データが必要となる。しかし、大量の教師データの収集は、人手により行われることが想定されるため、多大な労力及び時間が必要となる。 On the other hand, learning of an image classification device using deep learning requires a large amount of teacher data in which a set of an image and a correct answer label is used. However, collection of a large amount of teacher data is supposed to be performed manually, which requires a great deal of labor and time.
画像分類のための教師データ生成技術については、これまでに複数の提案がされている。例えば、特許文献1には、基板の欠陥を自動的に分類するための教師データを生成する際に、オペレータの負荷を低減する技術が提案されている。 A plurality of proposals have been made on teacher data generation techniques for image classification. For example, Patent Literature 1 proposes a technique for reducing the load on an operator when generating teacher data for automatically classifying a defect of a substrate.
また、特許文献2には、画像を領域分割してクラスタリングし、オペレータの指示等により正事例データまたは負事例データとして選定することで、教師データを生成する技術が提案されている。 Patent Document 2 proposes a technique of generating teacher data by dividing an image into regions and performing clustering, and selecting the data as positive case data or negative case data according to an instruction from an operator or the like.
また、特許文献3には、学習に効果的な教師データを生成するために、画像から検出対象の領域を検出する複数の検出器を備え、これらの検出結果を統合することにより、教師データを選択する技術が提案されている。 Further, Patent Document 3 includes a plurality of detectors for detecting a region to be detected from an image in order to generate teacher data effective for learning, and integrates these detection results to generate teacher data. Techniques for selecting have been proposed.
また、深層学習を用いた画像分類の技術として、特許文献4には、画像の分類処理と再学習処理とを並行して行う技術が提案されている。具体的には、制御部は、分類処理を行う複数の判断部に対して稼働、休止等を制御し、再学習を行う再学習部に対して再学習の実施を制御し、再学習完了時に、学習モデルを複数の判断部に複製して稼働させる等の制御を行う。 As a technology of image classification using deep learning, Patent Literature 4 proposes a technology of performing image classification processing and re-learning processing in parallel. Specifically, the control unit controls the operation, suspension, and the like of the plurality of determination units that perform the classification process, controls the re-learning unit that performs the re-learning, and controls the execution of the re-learning. In addition, control is performed such that the learning model is copied to a plurality of determination units and operated.
しかしながら、前述の特許文献1の技術では、分類器によって仮に付与されたラベルの正否の判断を自動化するための特徴量を予め決めておく必要がある。また、特許文献2の技術では、教師データを収集するためにクラスタリングにより自動化しているが、クラスタリングに用いる特徴量は予め設定されている。このため、これらの技術は、特徴量の設計及び選定が困難な画像分類装置には適用が難しく、また、画像の状況判断等に用いる高度な画像分類装置にも適用が難しい。 However, in the technique of Patent Document 1 described above, it is necessary to determine in advance a feature amount for automatically determining whether a label temporarily assigned by a classifier is correct or not. Further, in the technique of Patent Literature 2, in order to collect teacher data, automation is performed by clustering, but feature amounts used for clustering are set in advance. For this reason, these techniques are difficult to apply to an image classifying apparatus in which it is difficult to design and select a feature amount, and also difficult to apply to an advanced image classifying apparatus used for determining the state of an image.
また、特許文献2の技術では、教師データの収集と分類器における学習とを独立して行うため、学習を行う分類器において、必ずしも有用な教師データを用いることができるとは限らない。 Further, in the technique of Patent Document 2, collection of teacher data and learning in a classifier are performed independently, so that useful teacher data cannot always be used in a classifier that performs learning.
また、特許文献3の技術では、複数の検出器を備え、それらの検出結果を統合することにより、教師データに加える画像を決定しているが、1つの検出器による検出結果を教師データとする場合には適用できない。また、オペレータによる教師データの確認とモデルの学習との並行処理については記載されておらず、データの収集からモデルの学習までの一連の処理に時間を要するという課題がある。 In the technique of Patent Document 3, an image to be added to teacher data is determined by integrating a plurality of detectors and integrating the detection results, but the detection result by one detector is used as teacher data. Not applicable in cases. In addition, there is no description about the parallel processing of checking teacher data and learning a model by an operator, and there is a problem that a series of processing from data collection to model learning requires time.
また、特許文献4の技術では、再学習のプロセスの並行処理を自動的に行っているが、予め正解ラベルが得られていることが前提となっており、教師データを収集する労力については解決されていない。 Further, in the technique of Patent Document 4, parallel processing of the re-learning process is automatically performed. However, it is premised that correct labels are obtained in advance, and the labor for collecting teacher data is solved. It has not been.
前述のとおり、画像分類装置の学習には、大量の教師データが必要となる。しかし、大量の教師データを収集したとしても、教師データが有用でない場合には、精度の高い分類を行うための学習モデルを生成することができない。このため、有用な教師データを、低労力かつ短時間で収集する仕組みが所望されていた。 As described above, a large amount of teacher data is required for learning of the image classification device. However, even if a large amount of teacher data is collected, if the teacher data is not useful, a learning model for performing highly accurate classification cannot be generated. Therefore, a mechanism for collecting useful teacher data with low labor and in a short time has been desired.
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、教師データを用いて、画像を分類するための学習モデルの学習を行う際に、有用な教師データを収集するための労力及び時間を低減可能な画像分類装置及びプログラムを提供することにある。 Therefore, the present invention has been made to solve the above-described problem, and an object of the present invention is to collect useful teacher data when learning a learning model for classifying images using the teacher data. To provide an image classification device and a program that can reduce the labor and time required for the image classification.
前記課題を解決するために、請求項1の画像分類装置は、画像を分類するための学習モデルの学習を行う画像分類装置において、収集された複数の教師候補画像のそれぞれについて、前記学習モデルを用いてカテゴリ毎のスコアを推定し、前記スコアの最も高いカテゴリに分類し、カテゴリ毎に、前記スコアの低い順に前記複数の教師候補画像をソートし、カテゴリ毎の分類結果を生成する画像分類部と、前記画像分類部により生成された前記分類結果の前記教師候補画像について、カテゴリ毎に、前記スコアの低い順番にオペレータに確認を促し、前記オペレータの操作に従ってカテゴリを修正し、カテゴリ毎の前記教師候補画像を教師データとして生成する修正部と、前記修正部により生成されたカテゴリ毎の前記教師データを用いて、前記学習モデルの学習を行う学習部と、を備えたことを特徴とする。 In order to solve the problem, the image classification device according to claim 1, wherein the image classification device performs learning of a learning model for classifying images, wherein the learning model is generated for each of a plurality of collected teacher candidate images. An image classification unit that estimates a score for each category by using the category, classifies the plurality of teacher candidate images into categories having the highest score, sorts the plurality of teacher candidate images in descending order of the score for each category, and generates a classification result for each category And for the teacher candidate image of the classification result generated by the image classification unit, for each category, prompt the operator to confirm in the order of the lowest score, correct the category according to the operation of the operator, Using a correction unit that generates a teacher candidate image as teacher data, and using the teacher data for each category generated by the correction unit, A learning unit that performs learning of the serial learning model, characterized by comprising a.
また、請求項2の画像分類装置は、請求項1に記載の画像分類装置において、さらに、スケジューラを備え、前記画像分類部が、前記複数の教師候補画像を収集する画像収集装置から、前記複数の教師候補画像を入力し、前記スケジューラが、前記画像収集装置により前記複数の教師候補画像を収集する収集処理、前記画像分類部により前記分類結果を生成する分類処理、前記修正部により前記教師データを生成する修正処理、及び前記学習部により前記学習モデルの学習を行う学習処理のそれぞれのタイミングを制御すると共に、前記画像分類部による前記分類処理と、前記学習部による前記学習処理とが同時に行われないように、前記分類処理を開始させるための分類開始指示を前記画像分類部に出力し、前記学習処理を開始させるための学習開始指示を前記学習部に出力する、ことを特徴とする。 The image classification device according to claim 2 is the image classification device according to claim 1, further comprising a scheduler, wherein the image classification unit is configured to collect the plurality of teacher candidate images from the image collection device. Inputting the teacher candidate images, the scheduler collects the plurality of teacher candidate images by the image collection device, a classification process of generating the classification result by the image classification unit, and the teacher data by the correction unit. And a learning process for learning the learning model by the learning unit. The classification process by the image classification unit and the learning process by the learning unit are performed simultaneously. Output a classification start instruction for starting the classification process to the image classifying unit so as to prevent the learning process from starting. And it outputs a learning instruction to start the learning section, and wherein the.
また、請求項3の画像分類装置は、請求項2に記載の画像分類装置において、前記スケジューラが、前記収集処理を開始させるための収集開始指示を前記画像収集装置に出力し、前記画像収集装置から前記収集処理が完了したことを示す収集完了を入力すると、前記収集処理が完了したことを判定し、前記画像収集装置による前記収集処理が完了しており、かつ、前記学習部による前記学習処理が完了している場合、前記分類開始指示を前記画像分類部に出力し、前記画像分類部から前記分類処理が完了したことを示す分類完了を入力すると、前記分類処理が完了したことを判定し、前記分類処理が完了している場合、前記修正処理を開始させるための修正開始指示を前記修正部に出力し、前記修正処理が完了したことを示す修正完了を前記修正部から入力すると、前記修正処理が完了したことを判定し、前記修正部による前記修正処理が完了しており、かつ、前記画像分類部による前記分類処理が完了している場合、前記学習開始指示を前記学習部に出力し、前記学習部から前記学習処理が完了したことを示す学習完了を入力すると、前記学習処理が完了したことを判定する、ことを特徴とする。 The image classification device according to claim 3 is the image classification device according to claim 2, wherein the scheduler outputs a collection start instruction for starting the collection processing to the image collection device. When a collection completion indicating that the collection processing has been completed is input, it is determined that the collection processing has been completed, the collection processing by the image collection device has been completed, and the learning processing by the learning unit has been completed. Is completed, the classification start instruction is output to the image classification unit, and when the classification completion indicating that the classification processing is completed is input from the image classification unit, it is determined that the classification processing is completed. If the classification process has been completed, a correction start instruction for starting the correction process is output to the correction unit, and the correction completion indicating that the correction process has been completed is output to the correction unit. When input from the main part, it is determined that the correction processing has been completed, and when the correction processing by the correction part has been completed and the classification processing by the image classification part has been completed, the learning start is started. An instruction is output to the learning unit, and when learning completion indicating that the learning process has been completed is input from the learning unit, it is determined that the learning process has been completed.
さらに、請求項4のプログラムは、コンピュータを、請求項1から3までのいずれか一項に記載の画像分類装置として機能させることを特徴とする。 Furthermore, a program according to a fourth aspect causes a computer to function as the image classification device according to any one of the first to third aspects.
以上のように、本発明によれば、教師データを用いて、画像を分類するための学習モデルの学習を行う際に、有用な教師データを収集するための労力及び時間を低減することができる。 As described above, according to the present invention, when learning a learning model for classifying images using teacher data, it is possible to reduce labor and time for collecting useful teacher data. .
以下、本発明を実施するための形態について図面を用いて詳細に説明する。
図1は、本発明の実施形態による画像分類装置を含む全体システムの概略図である。この全体システムは、画像を保持しているサーバ等の記憶装置1、画像収集装置2及び画像分類装置3を備えて構成される。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic diagram of an entire system including an image classification device according to an embodiment of the present invention. The overall system includes a storage device 1 such as a server that holds images, an image collection device 2, and an image classification device 3.
サーバ等の記憶装置1と画像収集装置2とは、インターネット等の伝送路4を介して接続され、画像収集装置2と画像分類装置3とは、LAN(Local Area Network:ローカルエリアネットワーク)等を介して接続される。 The storage device 1 such as a server and the image collection device 2 are connected via a transmission path 4 such as the Internet, and the image collection device 2 and the image classification device 3 are connected to a LAN (Local Area Network) or the like. Connected via.
記憶装置1には、画像分類装置3の学習処理に用いる教師データの候補となる画像が保持されている。尚、記憶装置1は、図1に示すように、伝送路4を介して画像収集装置2に接続されるサーバ等であってもよいし、画像収集装置2に直接接続され、画像がデータベースとして保存されたハードディスク等であってもよい。 The storage device 1 stores images that are candidates for teacher data used in the learning process of the image classification device 3. The storage device 1 may be a server or the like connected to the image collection device 2 via the transmission path 4 as shown in FIG. 1, or may be directly connected to the image collection device 2 and store the image as a database. It may be a stored hard disk or the like.
図2は、図1に示した全体システムにおいて、全体の処理の流れを説明するフローチャートである。まず、オペレータは、所定数の正解ラベル付き教師データ(画像及びスコア)を用意する。画像分類装置3は、実際の処理を行う前に、オペレータにより予め用意された所定数の正解ラベル付き教師データを用いて、学習モデルの初期学習を行う(ステップS201)。 FIG. 2 is a flowchart for explaining the overall processing flow in the overall system shown in FIG. First, the operator prepares a predetermined number of teacher data with correct labels (images and scores). Before performing the actual processing, the image classification device 3 performs initial learning of a learning model using a predetermined number of teacher data with correct answers prepared in advance by an operator (step S201).
画像収集装置2は、外部の記憶装置1から画像を収集し、画像に対して前処理を行い、学習に適した形に変換する(ステップS202)。画像分類装置3は、画像毎に、学習モデルを用いてカテゴリ毎のスコア(信頼度)を推定し(ステップS203)、最大スコアのカテゴリを、当該画像が属するカテゴリとする(ステップS204)。スコアは、画像がカテゴリに属する確率を示す。 The image collection device 2 collects images from the external storage device 1, performs preprocessing on the images, and converts the images into a form suitable for learning (step S202). The image classification device 3 estimates a score (reliability) for each category using a learning model for each image (step S203), and sets the category having the highest score as the category to which the image belongs (step S204). The score indicates the probability that the image belongs to the category.
画像分類装置3は、カテゴリ毎に、スコアの低い順に画像をソートする(ステップS205)。そして、画像分類装置3は、カテゴリ毎に、スコアの低い画像から順番にオペレータに確認を促し(画像が当該カテゴリに属するか否かを確認させ)、オペレータの操作に従い、必要に応じてカテゴリを修正する(ステップS206)。 The image classification device 3 sorts the images for each category in ascending order of the score (step S205). Then, the image classification device 3 prompts the operator to confirm in order from the image with the lowest score for each category (confirms whether or not the image belongs to the category), and sorts the category as necessary according to the operation of the operator. Correct (step S206).
画像分類装置3は、オペレータによる確認の後に修正を行わなかったカテゴリ、及びオペレータによる確認の後に修正を行ったカテゴリを正しいカテゴリとして、カテゴリ毎の教師データを生成する(ステップS207)。そして、画像分類装置3は、カテゴリ毎の教師データに基づいて学習モデルの学習を行う(ステップS208)。 The image classification device 3 generates teacher data for each category, using the category that has not been modified after confirmation by the operator and the category that has been modified after confirmation by the operator as the correct category (step S207). Then, the image classification device 3 learns the learning model based on the teacher data for each category (step S208).
これにより、スコアの低い画像を教師データとして、学習モデルの学習が行われる。スコアの低い画像を教師データとするのは、画像を一層正しく分類できるように学習モデルを更新するためである。そもそもスコアの低い画像は、現時点の学習モデルによって正しいカテゴリに分類され難い画像である。この画像のカテゴリがオペレータにより正しく修正され、修正後の画像を教師データとして学習モデルの学習を行うことで、正しく分類し難かった画像の分類精度を高めることができる。 Thereby, learning of the learning model is performed using the image with a low score as teacher data. The reason why images with low scores are used as teacher data is to update the learning model so that the images can be classified more correctly. In the first place, an image with a low score is an image that is difficult to be classified into a correct category by the current learning model. The category of this image is correctly corrected by the operator, and learning of the learning model is performed using the corrected image as teacher data, whereby the classification accuracy of an image that has been difficult to correctly classify can be increased.
つまり、スコアの低い画像を教師データとすることにより、分類精度の高い学習モデルに更新することができる点で、スコアの低い画像は有用な教師データであるといえる。このように、スコアの低い画像は、現時点の学習モデルが分類を苦手とする画像であるから、これを優先的に教師データとすることで、学習モデルの分類精度を効率的に高めることができる。 In other words, an image with a low score can be said to be useful teacher data because an image with a low score can be updated to a learning model with high classification accuracy by using it as teacher data. As described above, since an image having a low score is an image for which the current learning model is not good at classifying, the classification accuracy of the learning model can be efficiently increased by preferentially setting this as teacher data. .
画像分類装置3は、処理を終了するか否か(所定の終了の条件を満たしているか否か)を判定し(ステップS209)、処理を終了しないと判定した場合(ステップS209:N)、ステップS202へ移行し、ステップS202〜S208の処理を繰り返す。一方、画像分類装置3は、ステップS209において、処理を終了すると判定した場合(ステップS209:Y)、処理を終了する。 The image classification device 3 determines whether or not to end the process (whether or not a predetermined end condition is satisfied) (step S209), and when it is determined that the process is not to be ended (step S209: N), The process proceeds to S202, and the processes of steps S202 to S208 are repeated. On the other hand, when the image classification device 3 determines in step S209 that the process is to be ended (step S209: Y), the process ends.
画像分類装置3は、ステップS209において、例えば追加学習により画像分類の精度が十分となった場合、または十分な数の教師データが得られた場合に、処理を終了する。 The image classification device 3 ends the process in step S209, for example, when the accuracy of the image classification becomes sufficient by additional learning or when a sufficient number of teacher data is obtained.
図1を参照して、画像収集装置2は、画像収集部20、教師候補画像が保存される記憶部21及び前処理部22を備えている。画像分類装置3は、画像分類部30、学習モデルが保存された記憶部31、カテゴリ毎の画像及びスコアが保存される記憶部32、修正部33、カテゴリ毎の画像が保存される記憶部34、学習部35及びスケジューラ36を備えている。
With reference to FIG. 1, the image collection device 2 includes an
図3は、画像収集装置2及び画像分類装置3の処理フロー例を示す図である。画像分類装置3のスケジューラ36は、画像収集装置2の画像収集部20及び前処理部22、並びに画像分類装置3の画像分類部30、修正部33及び学習部35におけるそれぞれの動作をスケジューリングし、統括制御する(ステップS300)。スケジューラ36の詳細については後述する。
FIG. 3 is a diagram illustrating an example of a processing flow of the image collection device 2 and the image classification device 3. The
画像収集装置2の画像収集部20は、記憶装置1から伝送路4を介して、N枚の画像を収集し、N枚の画像を教師候補画像I1,・・・,INとして記憶部21に保存する(ステップS301)。Nは1以上の整数である。 Image acquisition of the image acquisition device 2 20 via the transmission path 4 from the storage device 1 collects N images, storing unit N images teacher candidate image I 1, · · ·, as I N 21 (step S301). N is an integer of 1 or more.
画像収集部20は、例えばWebページにある画像を、サイズまたはアスペクト比等の条件に基づいてダウンロードしてもよいし、分類対象となる画像が登録されたデータベースから、ランダムに選択して読み出すようにしてもよい。
For example, the
前処理部22は、記憶部21からN枚の教師候補画像I1,・・・,INを読み出し、教師候補画像I1,・・・,INを画像分類装置3の入力フォーマットに適した形に変換するための前処理を行う(ステップS302)。そして、前処理部22は、前処理後のN枚の教師候補画像I1,・・・,INを画像分類装置3へ送信する。
前処理部22は、例えば画像のサイズを学習モデルの入力サイズに合わせるために変換したり、学習モデルの汎化性能を向上させるためにランダムに変形させたり、ノイズを加えたりする。
The preprocessing
画像分類装置3の画像分類部30は、画像収集装置2の前処理部22から、前処理後のN枚の教師候補画像I1,・・・,INを受信する。そして、画像分類部30は、教師候補画像I1,・・・,INのそれぞれについて特徴量を算出し、特徴量に基づいてカテゴリ毎のスコアを推定し、スコアの最も高いカテゴリを特定する。カテゴリの数をCとし、Cは2以上の整数とする。
The
具体的には、画像分類部30は、記憶部31に保存された学習モデルを用いて、教師候補画像I1,・・・,INのそれぞれについてカテゴリ毎のスコアを推定し、スコアの最も高いカテゴリを特定する。
Specifically, the
画像分類部30の処理が行われる前に、学習モデルは、既に初期学習済みであるものとする。前述のとおり、初期学習時には、所定数の正解ラベル付き教師データが用意され、学習が行われる。
Before the process of the
画像分類部30は、特定したカテゴリに従い、教師候補画像I1,・・・,INのそれぞれをC個のカテゴリのうちのいずれかに分類する(ステップS303)。画像分類部30は、カテゴリ毎の分類結果である教師候補画像Ik,1,・・・,Ik,Nk及び特定したカテゴリのスコアSk,1,・・・,Sk,Nkを記憶部32に保存する(ステップS304)。画像分類部30の詳細については後述する。
kはカテゴリの番号であり、k=1,・・・,Cである。Nkは、カテゴリkに分類された教師候補画像Ik,1,・・・,Ik,Nkの枚数であり、0以上の整数である。つまり、カテゴリkの分類結果は、Nk枚の教師候補画像Ik,1,・・・,Ik,Nk及びこれらのスコアSk,1,・・・,Sk,Nkである。 k is a category number, and k = 1,..., C. Nk is the number of teacher candidate images I k, 1 ,..., I k, Nk classified into the category k, and is an integer of 0 or more. That is, the classification result of the category k is Nk teacher candidate images I k, 1 ,..., I k, Nk and their scores S k, 1 ,.
図4は、画像分類部30及び学習部35による学習モデルの処理例を説明する図である。図4に示すように、画像分類部30は、教師候補画像I1,・・・,IN(総称して、教師候補画像Iという。)のそれぞれを、学習モデルの入力データとして入力層に与え、カテゴリ毎のスコアSを、学習モデルの出力データとして出力層から取得する。
FIG. 4 is a diagram illustrating an example of processing of a learning model by the
これにより、教師候補画像Iについて、学習モデルを用いてカテゴリ毎のスコアSが推定される。図4に示すスコアS(0.3,0.1,0,・・・,0.1)の例の場合、教師候補画像Iのカテゴリ1のスコアは0.3、カテゴリ2のスコアは0.1、カテゴリ3のスコアは0、・・・、カテゴリCのスコアは0.1である。全てのカテゴリのスコアの合計は1である。最大スコアが0.3であるとすると、画像分類部30は、教師候補画像Iを、最大スコアのカテゴリ1に分類する。
Thereby, the score S for each category is estimated for the teacher candidate image I using the learning model. In the example of the score S (0.3, 0.1, 0,..., 0.1) shown in FIG. 4, the score of category 1 of the teacher candidate image I is 0.3, and the score of category 2 is 0. ., The score of category 3 is 0,..., The score of category C is 0.1. The sum of the scores for all categories is 1. Assuming that the maximum score is 0.3, the
ここで、学習モデルを用いることで、入力層に入力された教師候補画像Iから特徴量が算出される。この特徴量とは、画像の局所的な特徴または画像全体の意味的な特徴を反映したベクトルであり、例えば畳み込みニューラルネットワークにおいては、畳み込み層及びプーリング層を繰り返し連ねることにより得られる。また、画像の勾配または色ヒストグラム等、学習により更新されない予め決められた特徴量を用いてもよい。 Here, the feature amount is calculated from the teacher candidate image I input to the input layer by using the learning model. The feature amount is a vector reflecting a local feature of the image or a semantic feature of the entire image. For example, in a convolutional neural network, the feature amount is obtained by repeatedly connecting a convolutional layer and a pooling layer. Alternatively, a predetermined feature amount that is not updated by learning, such as an image gradient or a color histogram, may be used.
そして、特徴量からカテゴリ毎のスコアが算出される。算出方法としては、例えば畳み込みニューラルネットワークにおいて、複数の全結合層を連ね、出力層としてカテゴリの個数(C個)の要素を持つ層を使用することにより得られる。 Then, a score for each category is calculated from the feature amount. As a calculation method, for example, in a convolutional neural network, it can be obtained by connecting a plurality of all connected layers and using a layer having an element of the number of categories (C) as an output layer.
尚、学習モデルは、教師あり学習が可能なモデルであり、画像の分類結果をスコアとして出力するものであればよい。学習モデルとしては、例えばニューラルネットワークが用いられる。この場合、ニューラルネットワークの種類は何でもよいが、深層学習で用いられる畳み込みニューラルネットワークであることが望ましい。畳み込みニューラルネットワークについては以下の文献を参照されたい。
A. Krizhevsky et al.,“Imagenet classification with deep convolutional neural networks”,Advances in neural information processing systems,pp.1097-1105(2012)
The learning model is a model capable of supervised learning, and may be any model that outputs the classification result of the image as a score. For example, a neural network is used as the learning model. In this case, any type of neural network may be used, but a convolutional neural network used in deep learning is preferable. For the convolutional neural network, refer to the following document.
A. Krizhevsky et al., “Imagenet classification with deep convolutional neural networks”, Advances in neural information processing systems, pp.1097-1105 (2012)
図5は、記憶部32に保存された分類結果の構成例を示す図である。図5に示すように、カテゴリ1について、教師候補画像I1,1,・・・,I1,N1及びスコアS1,1,・・・,S1,N1が記憶部32に保存される。また、カテゴリ2について、教師候補画像I2,1,・・・,I2,N2及びスコアS2,1,・・・,S2,N2が記憶部32に保存される。同様に、カテゴリCについて、教師候補画像IC,1,・・・,IC,NC及びスコアSC,1,・・・,SC,NCが記憶部32に保存される。
FIG. 5 is a diagram illustrating a configuration example of the classification result stored in the
N1は、カテゴリ1に分類された教師候補画像I1,1,・・・,I1,N1の枚数であり、0以上の整数である。N2は、カテゴリ2に分類された教師候補画像I2,1,・・・,I2,N2の枚数であり、0以上の整数である。同様に、NCは、カテゴリCに分類された教師候補画像IC,1,・・・,IC,NCの枚数であり、0以上の整数である。 N1 is the number of teacher candidate images I 1,1 ,..., I 1, N1 classified into category 1, and is an integer of 0 or more. N2 is the number of teacher candidate images I 2,1 ,..., I 2, N2 classified into category 2, and is an integer of 0 or more. Similarly, NC is the number of teacher candidate images I C, 1 ,..., I C, NC classified into category C, and is an integer of 0 or more.
図1及び図3に戻って、修正部33は、記憶部32から、分類結果であるカテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを読み出す。そして、修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番にオペレータに確認を促し、オペレータの操作に従い、必要に応じてカテゴリを修正する(ステップS305)。
Returning to FIGS. 1 and 3, the
これにより、カテゴリが正しいと確認された教師候補画像Iについては、そのカテゴリはそのままとされ、カテゴリが正しくないと確認された教師候補画像Iについては、そのカテゴリは修正される。 As a result, the category of the teacher candidate image I whose category is confirmed to be correct is left as it is, and the category of the teacher candidate image I whose category is confirmed to be incorrect is corrected.
修正部33は、確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’を教師データとして、記憶部34に保存する(ステップS306)。修正部33の詳細については後述する。
The
確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’には、確認後修正されなかった画像、及び確認後修正された画像が含まれる。kはカテゴリの番号であり、k=1,・・・,Cである。Nk’は、カテゴリkに属する確認及び修正後の教師候補画像Iの枚数であり、0以上の整数である。 The teacher candidate images I k, 1 ′ ,..., I k, Nk ′ for each category after confirmation and modification include images that have not been modified after confirmation and images that have been modified after confirmation. k is a category number, and k = 1,..., C. Nk ′ is the number of confirmed and corrected teacher candidate images I belonging to the category k, and is an integer of 0 or more.
これにより、スコアの低い教師候補画像Iから順番に確認及び修正が行われ、教師データが生成される。したがって、スコアの低い教師候補画像I(分類が誤っている教師候補画像I、またはカテゴリの分類が困難な分類境界に近い教師候補画像I)について、そのカテゴリを正しいものに修正することができ、これを優先的に教師データに追加することができる。前述のとおり、スコアの低い教師候補画像Iは、現時点の学習モデルが分類を苦手とする画像であるから、これを教師データとすることで、分類精度の高い学習モデルに更新することができる。 As a result, confirmation and correction are performed in order from the teacher candidate image I having the lowest score, and teacher data is generated. Therefore, with respect to a teacher candidate image I having a low score (a teacher candidate image I with a wrong classification or a teacher candidate image I near a classification boundary where classification of a category is difficult), the category can be corrected to a correct one. This can be preferentially added to the teacher data. As described above, the teacher candidate image I with a low score is an image for which the current learning model is not good at classification. By using this as teacher data, it is possible to update the learning model with high classification accuracy.
学習部35において、有用な教師データを用いて学習が行われるから、修正部33の処理は、分類精度の高い学習モデルに更新するために必要な処理であるといえる。
Since learning is performed in the
また、カテゴリが付与された教師候補画像Iに対し、修正部33にてそのカテゴリを修正する処理は、カテゴリ(ラベル)が付与されていない画像に対してカテゴリを新たに付与する処理に比べ、処理負担が少なくて済む。
The process of correcting the category by the correcting
図6は、記憶部34に保存された教師データの構成例を示す図である。図6に示すように、カテゴリ1について、教師データ(の画像)I1,1’,・・・,I1,N1’が記憶部34に保存される。また、カテゴリ2について、教師データI2,1’,・・・,I2,N2’が記憶部34に保存される。同様に、カテゴリCについて、教師データIC,1’,・・・,IC,NC’が記憶部34に保存される。
FIG. 6 is a diagram illustrating a configuration example of the teacher data stored in the
N1’は、カテゴリ1に属する教師データI1,1’,・・・,I1,N1’の枚数であり、0以上の整数である。N2’は、カテゴリ2に属する教師データI2,1’,・・・,I2,N2’の枚数であり、0以上の整数である。同様に、NC’は、カテゴリCに属する教師データIC,1’,・・・,IC,NC’の枚数であり、0以上の整数である。 N1 ′ is the number of teacher data I 1,1 ′ ,..., I 1, N1 ′ belonging to category 1, and is an integer of 0 or more. N2 ′ is the number of teacher data I 2,1 ′ ,..., I 2, N2 ′ belonging to category 2, and is an integer of 0 or more. Similarly, NC ′ is the number of teacher data I C, 1 ′ ,..., I C, NC ′ belonging to category C, and is an integer of 0 or more.
図1及び図3に戻って、学習部35は、記憶部34からカテゴリ毎の教師データIk,1’,・・・,Ik,Nk’を読み出す。そして、学習部35は、カテゴリ毎の教師データIk,1’,・・・,Ik,Nk’に基づいて、記憶部31に保存された学習モデルの学習を行う(ステップS307)。学習部35の詳細については後述する。
Returning to FIGS. 1 and 3, the
図4を参照して、学習部35は、教師データIk,1’,・・・,Ik,Nk’のそれぞれを入力データとし、当該教師データが属するカテゴリを反映したカテゴリ毎のスコアSを正解データとして、学習モデルの学習を行う。カテゴリ毎のスコアSは、当該教師データが属するカテゴリのスコアを1とし、その他のカテゴリのスコアを0とする。
Referring to FIG. 4, learning
図4の例では、教師データがカテゴリ2に属する場合を示している。この教師データのスコアSは、カテゴリ2のスコアを1、その他のカテゴリのスコアを0としたS(0,1,0,・・・,0)である。学習部35は、教師データ及びスコアSを学習モデルに与える。そして、学習部35は、教師データを入力層から順伝播させ、出力層の出力信号とスコアSとの間の誤差信号を求め、誤差信号を出力層から逆伝播させることで、重み等のパラメータを更新する。
The example of FIG. 4 shows a case where the teacher data belongs to category 2. The score S of the teacher data is S (0, 1, 0,..., 0) where the score of category 2 is 1 and the scores of other categories are 0. The
これにより、修正部33にて生成された有用な教師データを用いて学習が行われるから、分類精度の高い学習モデルに更新することができ、画像分類部30における分類精度を高めることができる。
Thereby, learning is performed using the useful teacher data generated by the
図1及び図3に戻って、画像収集装置2及び画像分類装置3によるステップS301〜S307の処理は、ステップS300の処理に従い、繰り返し行われる。 Returning to FIGS. 1 and 3, the processing of steps S301 to S307 by the image collection device 2 and the image classification device 3 is repeatedly performed according to the processing of step S300.
これにより、修正部33により生成される教師データが逐次的に増えると共に、画像分類部30による分類処理の精度を高めることができる。
Thereby, the teacher data generated by the
〔画像分類部30〕
次に、図1に示した画像分類装置3の画像分類部30について詳細に説明する。図7は、画像分類部30の処理例を示すフローチャートである。
[Image Classification Unit 30]
Next, the
画像分類部30は、スケジューラ36から分類開始指示を入力したか否かを判定する(ステップS701)。画像分類部30は、ステップS701において、分類開始指示を入力していないと判定した場合(ステップS701:N)、分類開始指示を入力するまで待つ。分類開始指示は、スケジューラ36が画像分類部30に分類処理を開始させるための信号である。
The
一方、画像分類部30は、ステップS701において、分類開始指示を入力したと判定した場合(ステップS701:Y)、画像収集装置2の前処理部22から教師候補画像I1,・・・,INを入力する(ステップS702)。
On the other hand, if the
画像分類部30は、教師候補画像I1,・・・,INのそれぞれについて、記憶部31に保存された学習モデルを用いて、カテゴリ毎のスコアを推定する(ステップS703)。これにより、教師候補画像I1,・・・,INのそれぞれについて、カテゴリ毎のスコアS1,・・・,SNが得られる。
画像分類部30は、教師候補画像I1,・・・,INのそれぞれについて、カテゴリ毎のスコアのうち最大スコアを特定し、最大スコアのカテゴリを、当該教師候補画像Iのカテゴリに設定する(ステップS704)。
画像分類部30は、教師候補画像I1,・・・,INをカテゴリ毎に分類する(ステップS705)。そして、画像分類部30は、カテゴリ毎に、スコアの低い順に教師候補画像I1,・・・,INをソートすることで、k(k=1,・・・,C)番目のカテゴリについての画像Ik,1,・・・,Ik,Nkを得る(ステップS706)。
The
画像分類部30は、カテゴリ毎の分類結果である教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを生成し(ステップS707)、記憶部32に保存する(ステップS708)。
The
画像分類部30は、画像収集装置2から入力した教師候補画像I1,・・・,INの分類処理が完了したとして、ステップS701にて入力した分類開始指示に対応する分類完了を、スケジューラ36に出力する(ステップS709)。分類完了は、画像分類部30による分類処理が完了したことを示す信号である。
このように、画像分類部30は、分類開始指示に従い、学習モデルを用いて教師候補画像I1,・・・,INの分類を行い、カテゴリ毎の分類結果である教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを生成し、分類完了を出力する。
In this way, the
〔修正部33〕
次に、図1に示した画像分類装置3の修正部33について詳細に説明する。図8は、修正部33の処理例を示すフローチャートである。
[Modification unit 33]
Next, the
修正部33は、スケジューラ36から修正開始指示を入力したか否かを判定する(ステップS801)。修正部33は、ステップS801において、修正開始指示を入力していないと判定した場合(ステップS801:N)、修正開始指示を入力するまで待つ。修正開始指示は、スケジューラ36が修正部33に修正処理を開始させるための信号である。
The
一方、修正部33は、ステップS801において、修正開始指示を入力したと判定した場合(ステップS801:Y)、記憶部32から、分類結果であるカテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを読み出す(ステップS802)。
On the other hand, when the
修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番にオペレータに確認を促し、オペレータの操作に従い、必要に応じてカテゴリを修正する(ステップS803)。
The
修正部33は、確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’を教師データとして生成し(ステップS804)、これを記憶部34に保存する(ステップS805)。
The
確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’は、カテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nkのうち、オペレータにより確認が行われた画像のみである。ここで、オペレータにより確認が行われた画像には、その確認によりカテゴリが誤っていると判断され、その後カテゴリが修正された画像、及び、その確認によりカテゴリが正しいと判断され、その後カテゴリが修正されなかった画像が含まれる。 The teacher candidate images I k, 1 ′ ,..., I k, Nk ′ for each category after confirmation and correction are the teacher candidate images I k, 1 ,. Only the images confirmed by the operator. Here, in the image confirmed by the operator, the category is determined to be incorrect by the confirmation, and the image in which the category is corrected thereafter, and the category is determined to be correct by the confirmation, and then the category is corrected. Includes images that were not performed.
修正部33は、画像分類部30により分類されたカテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nkの修正処理が完了したとして、ステップS801にて入力した修正開始指示に対応する修正完了を、スケジューラ36に出力する(ステップS806)。修正完了は、修正部33による修正処理が完了したことを示す信号である。
The
このように、修正部33は、修正開始指示に従い、カテゴリ毎の教師候補画像Ik,1,・・・,Ik,Nkの修正を行い、カテゴリ毎の確認修正結果である教師データIk,1’,・・・,Ik,Nk’を生成し、修正完了を出力する。
As described above, the
尚、修正部33は、ステップS803において、全てのカテゴリの全ての教師候補画像Ik,1,・・・,Ik,Nkを確認修正対象としてもよいし、予め設定された枚数の教師候補画像Ik,1,・・・,Ik,Nkを確認修正対象としてもよい。
Note that, in step S803, the
例えば、オペレータにより、カテゴリ毎に上限枚数が予め設定されているとする。修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番に、上限枚数に到達するまで確認を促し、カテゴリを修正する。
For example, it is assumed that the upper limit number of sheets is set in advance for each category by the operator. The
また、例えば、オペレータにより、カテゴリ毎にスコアの閾値が予め設定されているとする。修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番に、閾値を下回った画像のみについて確認を促し、カテゴリを修正する。
Further, for example, it is assumed that a score threshold value is set in advance for each category by an operator.
また、スケジューラ36が、修正部33により処理が行われる確認修正対象の枚数を決定するようにしてもよい。例えば、スケジューラ36は、修正部33による修正開始のタイミングにおいて、当該タイミングから学習部35により現在の学習が完了するまでの時間を推定する。そして、スケジューラ36は、修正部33が当該時間の経過するタイミングで修正処理を完了するように、確認修正対象の枚数を決定し、確認修正対象の枚数を修正部33に出力する。修正部33は、確認修正対象の枚数をカテゴリの数で除算し、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番に、除算結果の枚数に到達するまで確認を促し、カテゴリを修正する。
Further, the
具体的には、スケジューラ36は、後述する学習開始指示を学習部35に出力してから、学習部35から後述する学習完了を入力するまでの間の時間を求め、当該時間を教師データの数で除算することで1教師データあたりの学習時間を集計し、平均を算出して1教師データあたりの学習時間を推定する。スケジューラ36は、推定した1教師データあたりの学習時間を保持する。
Specifically, the
また、スケジューラ36は、修正指示開始を修正部33に出力してから、修正部33から修正完了を入力するまでの間の時間を求め、当該時間を確認修正が行われた画像の枚数で除算することで1画像あたりの修正時間を集計し、平均を算出して1画像あたりの修正時間を推定する。スケジューラ36は、推定した1画像あたりの修正時間を保持する。
In addition, the
スケジューラ36は、修正部33による修正開始のタイミングにおいて、学習部35から、現在の学習における残りの教師データの数を入力し、残りの教師データの数に、保持している1教師データあたりの学習時間を乗算することで、当該タイミングから現在の学習が完了するまでの時間を推定する。
The
スケジューラ36は、当該タイミングから現在の学習が完了するまでの時間を、保持している1画像あたりの修正時間で除算することで、確認修正対象の枚数を決定する。
The
また、修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkが所定の閾値以上の教師候補画像Ik,1,・・・,Ik,Nkを特定し、特定した画像の一部をランダムに選択して、確認修正対象の画像に加えるようにしてもよい。所定の閾値は、オペレータにより予め設定される。
The
これにより、スコアの高い画像を教師データとすることができ、スコアに基づいた教師データの偏りを軽減することができる。また、スコアが高いが誤ったカテゴリに分類された画像を修正する可能性を増やすことができる。 As a result, an image with a high score can be used as teacher data, and bias in teacher data based on the score can be reduced. Further, it is possible to increase the possibility of correcting an image having a high score but classified into an incorrect category.
このように、スコアが高いが誤ったカテゴリに分類された画像は、現時点の学習モデルが分類を苦手とする画像であるから、これを教師データとすることで、学習モデルの分類精度を効率的に高めることができる。 As described above, images classified into an incorrect category with a high score are images for which the current learning model is not good at classification, and by using this as teacher data, the classification accuracy of the learning model can be efficiently improved. Can be increased.
〔学習部35〕
次に、図1に示した画像分類装置3の学習部35について詳細に説明する。図9は、学習部35の処理例を示すフローチャートである。
[Learning unit 35]
Next, the
学習部35は、スケジューラ36から学習開始指示を入力したか否かを判定する(ステップS901)。学習部35は、ステップS901において、学習開始指示を入力していないと判定した場合(ステップS901:N)、学習開始指示を入力するまで待つ。学習開始指示は、スケジューラ36が学習部35に学習処理を開始させるための信号である。
The
一方、学習部35は、ステップS901において、学習開始指示を入力したと判定した場合(ステップS901:Y)、記憶部34から、カテゴリ毎の教師データIk,1’,・・・,Ik,Nk’を読み出す(ステップS902)。
On the other hand, the
学習部35は、教師データIk,1’,・・・,Ik,Nk’のそれぞれについて、当該画像の属するカテゴリのスコアを1に設定すると共に、それ以外のスコアを0に設定することで、スコアSを生成する(ステップS903)。
The
学習部35は、教師データIk,1’,・・・,Ik,Nk’のそれぞれを入力データとし、カテゴリ毎のスコアSを正解データとして、学習モデルの学習を行う(ステップS904)。
The
学習部35は、修正部33により確認修正されたカテゴリ毎の教師データIk,1’,・・・,Ik,Nk’を用いた学習処理が完了したとして、ステップS901にて入力した学習開始指示に対応する学習完了を、スケジューラ36に出力する(ステップS905)。学習完了は、学習部35による学習処理が完了したことを示す信号である。
The
このように、学習部35は、学習開始指示に従い、カテゴリ毎の教師データIk,1’,・・・,Ik,Nk’を用いた学習を行い、学習モデルを更新し、学習完了を出力する。
As described above, the
尚、学習部35は、ステップS903,S904において、記憶部34から読み出したカテゴリ毎の教師データIk,1’,・・・,Ik,Nk’に加え、今までの学習に用いた教師データも併せて、学習対象の教師データとしてもよい。
Note that the
これにより、過去の学習に用いた教師データを今回の学習の教師データとして、学習モデルの学習が行われる。過去の学習に用いた教師データを今回の学習の教師データとしない場合には、当該教師データの画像についての分類精度が低下してしまう。そこで、過去の学習に用いた教師データも今回の学習の教師データに含めることにより、当該画像の分類精度を低下させないようにできる。 As a result, learning of the learning model is performed using the teacher data used for the past learning as the teacher data for the current learning. If the teacher data used for the past learning is not used as the teacher data for the current learning, the classification accuracy of the image of the teacher data decreases. Therefore, by including the teacher data used in the past learning in the teacher data in the current learning, the classification accuracy of the image can be prevented from being reduced.
つまり、過去の学習に用いた教師データを今回の学習の教師データに含めることは、当該画像の分類精度を低下させない点で、有用な教師データであるといえる。これにより、学習モデルの分類精度を効率的に高めることができる。 In other words, it can be said that including teacher data used for past learning in teacher data for current learning is useful teacher data in that the classification accuracy of the image is not reduced. Thereby, the classification accuracy of the learning model can be efficiently increased.
また、学習部35は、オペレータにより予め設定された教師データ毎の使用率設定値に基づいて、教師データを選択するようにしてもよい。例えば、学習部35は、使用率設定値50%の教師データについて、2回の学習処理のうち1回について、当該教師データを間引く(除外する)ようにする。これにより、使用率設定値に応じて、学習に用いる教師データを間引くことができ、教師データの増加による学習時間の増大を緩和させることができる。
The
〔スケジューラ36〕
次に、図1に示した画像分類装置3のスケジューラ36について詳細に説明する。図10は、スケジューラ36による並行処理例を説明する図であり、下へ向けて時間が経過するものとする。前述のとおり、スケジューラ36は、画像収集部20、前処理部22、画像分類部30、修正部33及び学習部35の動作を統括制御し、処理開始のタイミングを指示することで、これらの処理を並行して行わせる。
[Scheduler 36]
Next, the
図10を参照して、まず時間帯T1において、画像収集部20及び前処理部22が教師候補画像A1の処理を行っており、このときに並行して、学習部35が教師データD1を用いて学習モデルを学習する処理を行っているものとする。
Referring to FIG. 10, first, in time zone T1,
学習部35による教師データD1の処理が完了し、画像収集部20及び前処理部22による教師候補画像A1の処理が完了すると、時間帯T2において、画像分類部30は、教師候補画像A1に基づき、学習モデルを用いて分類結果B1を生成する処理を行う。また、時間帯T2,T3において、画像収集部20及び前処理部22は、次の教師候補画像A2の処理を行う。
When the processing of the teacher data D1 by the
この場合、画像分類部30による学習モデルを用いた処理と、学習部35による学習モデルを学習する処理とは、同時に並行して実行することができない。1つの学習モデルについて、その利用及び学習を同時に実行できないからである。つまり、画像分類部30による処理は、学習部35による処理の完了を待って行われ、学習部35による処理は、画像分類部30による処理の完了を待って行われる。
In this case, the process using the learning model by the
画像分類部30による学習モデルを用いた分類結果B1を生成する処理が完了すると、時間帯T3,T4において、修正部33は、分類結果B1に基づいて教師データC1を生成する処理を行う。また、時間帯T3において、学習部35は、教師データD2を用いて学習モデルを学習する処理を行う。
When the process of generating the classification result B1 using the learning model by the
学習部35による教師データD2の処理が完了し、画像収集部20及び前処理部22による教師候補画像A2の処理が完了すると、時間帯T4において、画像分類部30は、教師候補画像A2に基づき、学習モデルを用いて分類結果B2を生成する処理を行う。また、時間帯T4,T5において、画像収集部20及び前処理部22は、次の教師候補画像A3の処理を行う。
When the processing of the teacher data D2 by the
修正部33による教師データC1を生成する処理が完了し、画像分類部30による学習モデルを用いた分類結果B2を生成する処理が完了すると、時間帯T5,T6において、修正部33は、分類結果B2に基づいて教師データC2を生成する処理を行う。また、時間帯T5において、学習部35は、教師データC1を用いて学習モデルを学習する処理を行う。
When the process of generating the teacher data C1 by the
学習部35による教師データC1の処理が完了し、画像収集部20及び前処理部22による教師候補画像A3の処理が完了すると、時間帯T6において、画像分類部30は、教師候補画像A3に基づき、学習モデルを用いて分類結果B3を生成する処理を行う。また、時間帯T6,T7において、画像収集部20及び前処理部22は、次の教師候補画像A4の処理を行う。
When the processing of the teacher data C1 by the
修正部33による教師データC2を生成する処理が完了し、画像分類部30による学習モデルを用いた分類結果B3を生成する処理が完了すると、時間帯T7,T8において、修正部33は、分類結果B3に基づいて教師データC3を生成する処理を行う。また、時間帯T7において、学習部35は、教師データC2を用いて学習モデルを学習する処理を行う。
When the process of generating the teacher data C2 by the
このように、画像収集部20及び前処理部22は、教師候補画像の処理が完了すると、次の教師候補画像の処理を行う。そして、画像分類部30は、画像収集部20及び前処理部22の処理の完了を待って処理を行い、修正部33は、画像分類部30の処理の完了を待って処理を行い、学習部35は、修正部33の処理の完了を待って処理を行う。
この場合、画像分類部30及び学習部35は、同じ学習モデルにアクセスすることから、同時に動作することはない(図10の斜線の箇所を参照)。
As described above, when the processing of the teacher candidate image is completed, the
In this case, since the
図11は、スケジューラ36による画像収集部20及び前処理部22の制御例を示すフローチャートである。スケジューラ36は、収集開始指示を画像収集部20に出力する(ステップS1101)。収集開始指示は、スケジューラ36が画像収集部20に収集処理を開始させるための信号である。
FIG. 11 is a flowchart illustrating an example of control of the
これにより、画像収集部20にて、教師候補画像の収集が行われ、その後前処理部22にて、当該教師候補画像の前処理が行われる。そして、前処理部22は、教師候補画像の前処理を完了すると、収集及び前処理完了をスケジューラ36に出力する。または、画像収集部20は、教師候補画像の収集を完了すると、収集完了をスケジューラ36に出力し、前処理部22は、教師候補画像の前処理を完了すると、前処理完了をスケジューラ36に出力する。
As a result, the
スケジューラ36は、前処理部22から収集及び前処理完了を入力したか否か(または、画像収集部20から収集完了を入力し、かつ前処理部22から前処理完了を入力したか否か)を判定する(ステップS1102)。
The
スケジューラ36は、ステップS1102において、収集及び前処理完了を入力したと判定した場合(ステップS1102:Y)、ステップS1103へ移行する。一方、スケジューラ36は、ステップS1102において、収集及び前処理完了を入力していないと判定した場合(ステップS1102:N)、収集及び前処理完了を入力するまで待つ。
If the
スケジューラ36は、当該スケジューラ36による画像収集部20及び前処理部22の制御を終了するか否か(所定の終了の条件を満たしているか否か)を判定する(ステップS1103)。スケジューラ36は、ステップS1103において、制御を終了しないと判定した場合(ステップS1103:N)、ステップS1101へ移行し、次の収集開始指示を画像収集部20に出力する。
The
これにより、画像収集部20にて、次の教師候補画像の収集が行われ、その後前処理部22にて、当該次の教師候補画像の前処理が行われる。
Thus, the
一方、スケジューラ36は、ステップS1103において、制御を終了すると判定した場合(ステップS1103:Y)、当該制御を終了する。
On the other hand, when the
図12は、スケジューラ36による画像分類部30の制御例を示すフローチャートである。スケジューラ36は、画像収集部20及び前処理部22による教師候補画像の収集及び前処理が完了済みであるか否かを判定する(ステップS1201)。また、スケジューラ36は、学習部35による教師データを用いた学習モデルの学習が完了済みであるか否かを判定する(ステップS1202)。
FIG. 12 is a flowchart illustrating an example of control of the
スケジューラ36は、ステップS1201において収集及び前処理が完了済みでない、またはステップS1202において学習が完了済みでないと判定した場合(ステップS1201:N、またはステップS1202:N)、完了済みとなるまで待つ。
When the
一方、スケジューラ36は、ステップS1201において収集及び前処理が完了済みであり、かつステップS1202において学習が完了済みであると判定した場合(ステップS1201:Y、かつステップS1202:Y)、分類開始指示を画像分類部30に出力する(ステップS1203)。
On the other hand, if the
これにより、画像分類部30にて、学習モデルを用いた教師候補画像の分類が行われる。そして、画像分類部30は、教師候補画像の分類を完了すると、分類完了をスケジューラ36に出力する。
Thereby, the
スケジューラ36は、画像分類部30から分類完了を入力したか否かを判定する(ステップS1204)。
The
スケジューラ36は、ステップS1204において、分類完了を入力したと判定した場合(ステップS1204:Y)、ステップS1205へ移行する。一方、スケジューラ36は、ステップS1204において、分類完了を入力していないと判定した場合(ステップS1204:N)、分類完了を入力するまで待つ。
If the
スケジューラ36は、当該スケジューラ36による画像分類部30の制御を終了するか否か(所定の終了の条件を満たしているか否か)を判定する(ステップS1205)。スケジューラ36は、ステップS1205において、制御を終了しないと判定した場合(ステップS1205:N)、ステップS1201へ移行し、次の分類開始指示を出力する条件を満たすか否かを判定する。
The
一方、スケジューラ36は、ステップS1205において、制御を終了すると判定した場合(ステップS1205:Y)、当該制御を終了する。
On the other hand, when the
図13は、スケジューラ36による修正部33の制御例を示すフローチャートである。スケジューラ36は、画像分類部30による教師候補画像の分類処理が完了済みであるか否かを判定する(ステップS1301)。
FIG. 13 is a flowchart illustrating an example of control of the
スケジューラ36は、ステップS1301において、分類処理が完了済みでないと判定した場合(ステップS1301:N)、完了済みとなるまで待つ。
If the
一方、スケジューラ36は、ステップS1301において、分類処理が完了済みであると判定した場合(ステップS1301:Y)、修正開始指示を修正部33に出力する(ステップS1302)。
On the other hand, when determining in step S1301 that the classification process has been completed (step S1301: Y), the
これにより、修正部33にて、分類結果を用いた修正処理が行われる。そして、修正部33は、修正処理を完了して教師データを生成すると、修正完了をスケジューラ36に出力する。
As a result, the
スケジューラ36は、修正部33から修正完了を入力したか否かを判定する(ステップS1303)。
The
スケジューラ36は、ステップS1303において、修正完了を入力したと判定した場合(ステップS1303:Y)、ステップS1304へ移行する。一方、スケジューラ36は、ステップS1303において、修正完了を入力していないと判定した場合(ステップS1303:N)、修正完了を入力するまで待つ。
If the
スケジューラ36は、当該スケジューラ36による修正部33の制御を終了するか否か(所定の終了の条件を満たしているか否か)を判定する(ステップS1304)。スケジューラ36は、ステップS1304において、制御を終了しないと判定した場合(ステップS1304:N)、ステップS1301へ移行し、次の修正開始指示を出力する条件を満たすか否かを判定する。
The
一方、スケジューラ36は、ステップS1304において、制御を終了すると判定した場合(ステップS1304:Y)、当該制御を終了する。
On the other hand, when the
図14は、スケジューラ36による学習部35の制御例を示すフローチャートである。スケジューラ36は、修正部33による分類結果の修正が完了済み(教師データの生成が完了済み)であるか否かを判定する(ステップS1401)。また、スケジューラ36は、画像分類部30による教師データを用いた分類が完了済みであるか否かを判定する(ステップS1402)。
FIG. 14 is a flowchart illustrating an example of control of the
スケジューラ36は、ステップS1401において修正が完了済みでない、またはステップS1402において分類が完了済みでないと判定した場合(ステップS1401:N、またはステップS1402:N)、完了済みとなるまで待つ。
If the
一方、スケジューラ36は、ステップS1401において修正が完了済みであり、かつステップS1402において分類が完了済みであると判定した場合(ステップS1401:Y、かつステップS1402:Y)、学習開始指示を学習部35に出力する(ステップS1403)。
On the other hand, if the
これにより、学習部35にて、教師データを用いた学習モデルの学習が行われる。そして、学習部35は、学習を完了すると、学習完了をスケジューラ36に出力する。
Thus, the
スケジューラ36は、学習部35から学習完了を入力したか否かを判定する(ステップS1404)。
The
スケジューラ36は、ステップS1404において、学習完了を入力したと判定した場合(ステップS1404:Y)、ステップS1405へ移行する。一方、スケジューラ36は、ステップS1404において、学習完了を入力していないと判定した場合(ステップS1404:N)、学習完了を入力するまで待つ。
If the
スケジューラ36は、当該スケジューラ36による学習部35の制御を終了するか否か(所定の終了の条件を満たしているか否か)を判定する(ステップS1405)。スケジューラ36は、ステップS1405において、制御を終了しないと判定した場合(ステップS1405:N)、ステップS1401へ移行し、次の学習開始指示を出力する条件を満たすか否かを判定する。
The
一方、スケジューラ36は、ステップS1405において、制御を終了すると判定した場合(ステップS1405:Y)、当該制御を終了する。
On the other hand, when the
このように、スケジューラ36は、画像収集部20、前処理部22、画像分類部30、修正部33及び学習部35におけるそれぞれの動作を統括制御し、これらの処理を並行して行わせる。
As described above, the
これにより、全体の処理時間を短縮することができ、1サイクルあたりの時間(画像収集部20がN枚の教師候補画像I1,・・・,INを収集してから学習部35が学習モデルの学習を行うまでの間の処理時間)を削減することができる。
Thus, it is possible to shorten the overall processing time, the teacher candidate image I 1 of the time (the
以上のように、本発明の実施形態の画像分類装置3によれば、画像分類部30は、教師候補画像I1,・・・,INのそれぞれについて、学習モデルを用いてカテゴリ毎のスコアを推定し、最大スコアのカテゴリに分類する。そして、画像分類部30は、カテゴリ毎に、スコアの低い順に教師候補画像I1,・・・,INをソートすることで、画像Ik,1,・・・,Ik,Nkを得る。画像分類部30は、カテゴリ毎の分類結果である教師候補画像Ik,1,・・・,Ik,Nk及びスコアSk,1,・・・,Sk,Nkを生成する。
As described above, according to the image classification device 3 of the embodiment of the present invention, the
修正部33は、カテゴリ毎に、スコアSk,1,・・・,Sk,Nkの低い教師候補画像Ik,1,・・・,Ik,Nkから順番にオペレータに確認を促し、オペレータの操作に従い、必要に応じてカテゴリを修正し、確認及び修正後のカテゴリ毎の教師候補画像Ik,1’,・・・,Ik,Nk’を教師データとする。学習部35は、カテゴリ毎の教師データを用いて学習モデルの学習を行う。
The
スケジューラ36は、画像収集部20、前処理部22、画像分類部30、修正部33及び学習部35の動作を統括制御し、これらの処理を並行して行わせる。
The
これにより、学習モデルを用いた分類結果に対し、オペレータによる修正が行われ、学習に用いる教師データが生成されるから、人手により教師データが収集される場合に比べ、有用な教師データを収集するための労力及び時間を低減することができる。 As a result, the classification result using the learning model is corrected by the operator, and teacher data used for learning is generated. Therefore, useful teacher data is collected as compared with a case where teacher data is collected manually. Labor and time can be reduced.
また、スケジューラ36の制御により、画像の収集及び前処理、学習モデルを用いた分類処理、修正処理、及び学習モデルの学習処理を並行して行うようにしたから、全体の処理時間を短縮し、1サイクルあたりの時間を削減することができる。
Also, under the control of the
一般に、深層学習の教師データとしては、カテゴリ毎に数千から数万枚の画像が必要とされることが多い。本発明の実施形態では、初期学習のために、カテゴリ毎に数百枚の画像を用意すれば済み、その後は処理の労力及び時間を低減しつつ、教師データを必要な量に達するまで収集することができる。 Generally, as the teacher data for deep learning, thousands to tens of thousands of images are often required for each category. In the embodiment of the present invention, it is sufficient to prepare several hundred images for each category for the initial learning, and thereafter, collect the teacher data until the required amount is reached while reducing the processing effort and time. be able to.
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。前記実施形態では、画像分類装置3はスケジューラ36を備えているが、スケジューラ36を備えていなくてもよい。
As described above, the present invention has been described with reference to the embodiment. However, the present invention is not limited to the above embodiment, and can be variously modified without departing from the technical idea thereof. In the above-described embodiment, the image classification device 3 includes the
尚、本発明の実施形態による画像分類装置3のハードウェア構成としては、通常のコンピュータを使用することができる。画像分類装置3は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。 Note that an ordinary computer can be used as a hardware configuration of the image classification device 3 according to the embodiment of the present invention. The image classification device 3 is configured by a computer including a CPU, a volatile storage medium such as a RAM, a non-volatile storage medium such as a ROM, and an interface.
画像分類装置3に備えた画像分類部30、記憶部31、記憶部32、修正部33、記憶部34、学習部35及びスケジューラ36の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
Each function of the
これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。 These programs are stored in the storage medium, and are read and executed by the CPU. These programs can also be stored in a storage medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory or the like, and distributed via a network. You can also send and receive.
本発明の実施形態による画像分類装置3は、画像による状況分析、画像による異常検知、画像による情報整理等において有用である。 The image classification device 3 according to the embodiment of the present invention is useful for analyzing situations using images, detecting abnormalities using images, organizing information using images, and the like.
1 記憶装置
2 画像収集装置
3 画像分類装置
4 伝送路
20 画像収集部
21,31,32,34 記憶部
22 前処理部
30 画像分類部
33 修正部
35 学習部
36 スケジューラ
REFERENCE SIGNS LIST 1 storage device 2 image collection device 3 image classification device 4
Claims (4)
収集された複数の教師候補画像のそれぞれについて、前記学習モデルを用いてカテゴリ毎のスコアを推定し、前記スコアの最も高いカテゴリに分類し、カテゴリ毎に、前記スコアの低い順に前記複数の教師候補画像をソートし、カテゴリ毎の分類結果を生成する画像分類部と、
前記画像分類部により生成された前記分類結果の前記教師候補画像について、カテゴリ毎に、前記スコアの低い順番にオペレータに確認を促し、前記オペレータの操作に従ってカテゴリを修正し、カテゴリ毎の前記教師候補画像を教師データとして生成する修正部と、
前記修正部により生成されたカテゴリ毎の前記教師データを用いて、前記学習モデルの学習を行う学習部と、
を備えたことを特徴とする画像分類装置。 In an image classification device that learns a learning model for classifying images,
For each of the collected plurality of teacher candidate images, a score for each category is estimated using the learning model, the category is classified into the category having the highest score, and for each category, the plurality of teacher candidates are sorted in ascending order of the score. An image classification unit that sorts images and generates a classification result for each category;
For the teacher candidate image of the classification result generated by the image classifying unit, for each category, the operator is urged to confirm in the order of the score, the category is corrected according to the operation of the operator, and the teacher candidate for each category is corrected. A correction unit that generates an image as teacher data,
A learning unit that learns the learning model using the teacher data for each category generated by the correction unit;
An image classification device comprising:
さらに、スケジューラを備え、
前記画像分類部は、
前記複数の教師候補画像を収集する画像収集装置から、前記複数の教師候補画像を入力し、
前記スケジューラは、
前記画像収集装置により前記複数の教師候補画像を収集する収集処理、前記画像分類部により前記分類結果を生成する分類処理、前記修正部により前記教師データを生成する修正処理、及び前記学習部により前記学習モデルの学習を行う学習処理のそれぞれのタイミングを制御すると共に、前記画像分類部による前記分類処理と、前記学習部による前記学習処理とが同時に行われないように、前記分類処理を開始させるための分類開始指示を前記画像分類部に出力し、前記学習処理を開始させるための学習開始指示を前記学習部に出力する、ことを特徴とする画像分類装置。 The image classification device according to claim 1,
In addition, it has a scheduler,
The image classification unit,
From the image collection device that collects the plurality of teacher candidate images, input the plurality of teacher candidate images,
The scheduler comprises:
A collection process of collecting the plurality of teacher candidate images by the image collection device; a classification process of generating the classification result by the image classification unit; a correction process of generating the teacher data by the correction unit; To control the timing of each learning process for learning a learning model, and to start the classification process so that the classification process by the image classification unit and the learning process by the learning unit are not performed simultaneously. The classification start instruction is output to the image classification unit, and a learning start instruction for starting the learning process is output to the learning unit.
前記スケジューラは、
前記収集処理を開始させるための収集開始指示を前記画像収集装置に出力し、前記画像収集装置から前記収集処理が完了したことを示す収集完了を入力すると、前記収集処理が完了したことを判定し、
前記画像収集装置による前記収集処理が完了しており、かつ、前記学習部による前記学習処理が完了している場合、前記分類開始指示を前記画像分類部に出力し、前記画像分類部から前記分類処理が完了したことを示す分類完了を入力すると、前記分類処理が完了したことを判定し、
前記分類処理が完了している場合、前記修正処理を開始させるための修正開始指示を前記修正部に出力し、前記修正処理が完了したことを示す修正完了を前記修正部から入力すると、前記修正処理が完了したことを判定し、
前記修正部による前記修正処理が完了しており、かつ、前記画像分類部による前記分類処理が完了している場合、前記学習開始指示を前記学習部に出力し、前記学習部から前記学習処理が完了したことを示す学習完了を入力すると、前記学習処理が完了したことを判定する、ことを特徴とする画像分類装置。 The image classification device according to claim 2,
The scheduler comprises:
A collection start instruction for starting the collection processing is output to the image collection apparatus, and when a collection completion indicating that the collection processing is completed is input from the image collection apparatus, it is determined that the collection processing is completed. ,
If the collection process by the image collection device has been completed, and the learning process by the learning unit has been completed, the classification start instruction is output to the image classification unit, and the classification is performed by the image classification unit. When inputting classification completion indicating that the processing is completed, it is determined that the classification processing is completed,
When the classification process is completed, a correction start instruction for starting the correction process is output to the correction unit, and when a correction completion indicating that the correction process is completed is input from the correction unit, the correction is performed. Judge that the process is completed,
When the correction processing by the correction unit is completed and the classification processing by the image classification unit is completed, the learning start instruction is output to the learning unit, and the learning processing is performed by the learning unit. An image classification device, wherein when learning completion indicating completion is input, it is determined that the learning processing is completed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018148174A JP7117934B2 (en) | 2018-08-07 | 2018-08-07 | Image classification device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018148174A JP7117934B2 (en) | 2018-08-07 | 2018-08-07 | Image classification device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020024534A true JP2020024534A (en) | 2020-02-13 |
JP7117934B2 JP7117934B2 (en) | 2022-08-15 |
Family
ID=69618739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018148174A Active JP7117934B2 (en) | 2018-08-07 | 2018-08-07 | Image classification device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7117934B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020123330A (en) * | 2019-01-30 | 2020-08-13 | 株式会社ストラドビジョン | Method for acquiring sample image for label acceptance inspection from among auto-labeled images utilized for neural network learning, and sample image acquisition device utilizing the same |
WO2021192119A1 (en) * | 2020-03-25 | 2021-09-30 | ソニーグループ株式会社 | Information processing device, program, and method |
JPWO2021192133A1 (en) * | 2020-03-26 | 2021-09-30 | ||
CN113706997A (en) * | 2021-09-06 | 2021-11-26 | 深圳市库思科技有限公司 | Urban and rural planning drawing standardization processing method and device and electronic equipment |
JP2022072841A (en) * | 2020-10-30 | 2022-05-17 | みずほリサーチ&テクノロジーズ株式会社 | Model evaluation system, model evaluation method and model evaluation program |
WO2022113175A1 (en) * | 2020-11-24 | 2022-06-02 | 日本電信電話株式会社 | Processing method, processing system, and processing program |
WO2022196400A1 (en) * | 2021-03-19 | 2022-09-22 | 公益財団法人実験動物中央研究所 | Excrement property estimation model training device, excrement property estimation device, excrement property estimation model training method, excrement property estimation method, and program |
CN117194041A (en) * | 2023-09-26 | 2023-12-08 | 北京强云创新科技有限公司 | Parallel optimization method and system for high-performance computer |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001256480A (en) * | 2000-03-09 | 2001-09-21 | Hitachi Ltd | Automatic picture classifying method and its device |
US20020102526A1 (en) * | 2001-01-29 | 2002-08-01 | Fujitsu Limited | Apparatus and method accumulating cases to be learned |
JP2011158373A (en) * | 2010-02-02 | 2011-08-18 | Dainippon Screen Mfg Co Ltd | Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification |
JP2016051429A (en) * | 2014-09-02 | 2016-04-11 | 株式会社Screenホールディングス | Teacher data creation support method, image classification method, teacher data creation support device and image classification device |
-
2018
- 2018-08-07 JP JP2018148174A patent/JP7117934B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001256480A (en) * | 2000-03-09 | 2001-09-21 | Hitachi Ltd | Automatic picture classifying method and its device |
US20020102526A1 (en) * | 2001-01-29 | 2002-08-01 | Fujitsu Limited | Apparatus and method accumulating cases to be learned |
JP2002222083A (en) * | 2001-01-29 | 2002-08-09 | Fujitsu Ltd | Device and method for instance storage |
JP2011158373A (en) * | 2010-02-02 | 2011-08-18 | Dainippon Screen Mfg Co Ltd | Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification |
JP2016051429A (en) * | 2014-09-02 | 2016-04-11 | 株式会社Screenホールディングス | Teacher data creation support method, image classification method, teacher data creation support device and image classification device |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020123330A (en) * | 2019-01-30 | 2020-08-13 | 株式会社ストラドビジョン | Method for acquiring sample image for label acceptance inspection from among auto-labeled images utilized for neural network learning, and sample image acquisition device utilizing the same |
WO2021192119A1 (en) * | 2020-03-25 | 2021-09-30 | ソニーグループ株式会社 | Information processing device, program, and method |
JPWO2021192133A1 (en) * | 2020-03-26 | 2021-09-30 | ||
WO2021192133A1 (en) * | 2020-03-26 | 2021-09-30 | 日本電気株式会社 | Object recognition device, object recognition method, and recording medium |
JP7298776B2 (en) | 2020-03-26 | 2023-06-27 | 日本電気株式会社 | OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND PROGRAM |
JP7085605B2 (en) | 2020-10-30 | 2022-06-16 | みずほリサーチ&テクノロジーズ株式会社 | Model evaluation system, model evaluation method and model evaluation program |
JP2022072841A (en) * | 2020-10-30 | 2022-05-17 | みずほリサーチ&テクノロジーズ株式会社 | Model evaluation system, model evaluation method and model evaluation program |
WO2022113175A1 (en) * | 2020-11-24 | 2022-06-02 | 日本電信電話株式会社 | Processing method, processing system, and processing program |
WO2022196400A1 (en) * | 2021-03-19 | 2022-09-22 | 公益財団法人実験動物中央研究所 | Excrement property estimation model training device, excrement property estimation device, excrement property estimation model training method, excrement property estimation method, and program |
CN113706997B (en) * | 2021-09-06 | 2023-06-27 | 深圳市指跃未来科技有限公司 | Urban and rural planning drawing standardization processing method and device and electronic equipment |
CN113706997A (en) * | 2021-09-06 | 2021-11-26 | 深圳市库思科技有限公司 | Urban and rural planning drawing standardization processing method and device and electronic equipment |
CN117194041A (en) * | 2023-09-26 | 2023-12-08 | 北京强云创新科技有限公司 | Parallel optimization method and system for high-performance computer |
CN117194041B (en) * | 2023-09-26 | 2024-03-19 | 北京强云创新科技有限公司 | Parallel optimization method and system for high-performance computer |
Also Published As
Publication number | Publication date |
---|---|
JP7117934B2 (en) | 2022-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020024534A (en) | Image classifier and program | |
CN109934293B (en) | Image recognition method, device, medium and confusion perception convolutional neural network | |
JP6629678B2 (en) | Machine learning device | |
US10867244B2 (en) | Method and apparatus for machine learning | |
CN109816032B (en) | Unbiased mapping zero sample classification method and device based on generative countermeasure network | |
JP6446971B2 (en) | Data processing apparatus, data processing method, and computer program | |
JP2018200685A (en) | Forming of data set for fully supervised learning | |
CN111656373A (en) | Training neural network model | |
CN113407694B (en) | Method, device and related equipment for detecting ambiguity of customer service robot knowledge base | |
CN110310114B (en) | Object classification method, device, server and storage medium | |
KR102264234B1 (en) | A document classification method with an explanation that provides words and sentences with high contribution in document classification | |
JP6973625B2 (en) | Learning equipment, learning methods and learning programs | |
CN111160959B (en) | User click conversion prediction method and device | |
CN113361593B (en) | Method for generating image classification model, road side equipment and cloud control platform | |
KR102103511B1 (en) | Code generating apparatus and method | |
CN114254146A (en) | Image data classification method, device and system | |
CN110458600A (en) | Portrait model training method, device, computer equipment and storage medium | |
CN112420125A (en) | Molecular attribute prediction method and device, intelligent equipment and terminal | |
US20210319269A1 (en) | Apparatus for determining a classifier for identifying objects in an image, an apparatus for identifying objects in an image and corresponding methods | |
CN117492703A (en) | Software development method, device and medium based on artificial intelligence | |
RU2715024C1 (en) | Method of trained recurrent neural network debugging | |
KR102413588B1 (en) | Object recognition model recommendation method, system and computer program according to training data | |
JP2007213441A (en) | Multivariable decision tree construction system, multivariable decision tree construction method and program for constructing multivariable decision tree | |
Riedlinger et al. | Uncertainty quantification for object detection: output-and gradient-based approaches | |
CN111767959A (en) | Method and device for classifying pile fibers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220708 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7117934 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |