JP2019109924A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2019109924A
JP2019109924A JP2019033673A JP2019033673A JP2019109924A JP 2019109924 A JP2019109924 A JP 2019109924A JP 2019033673 A JP2019033673 A JP 2019033673A JP 2019033673 A JP2019033673 A JP 2019033673A JP 2019109924 A JP2019109924 A JP 2019109924A
Authority
JP
Japan
Prior art keywords
image
learning
similar
information processing
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019033673A
Other languages
Japanese (ja)
Other versions
JP6761197B2 (en
JP2019109924A5 (en
Inventor
克繁 中田
Katsushige Nakada
克繁 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc filed Critical Canon Marketing Japan Inc
Priority to JP2019033673A priority Critical patent/JP6761197B2/en
Publication of JP2019109924A publication Critical patent/JP2019109924A/en
Publication of JP2019109924A5 publication Critical patent/JP2019109924A5/ja
Application granted granted Critical
Publication of JP6761197B2 publication Critical patent/JP6761197B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an information processing system, an information processing method, and a program thereof which can select an image as a candidate for additional learning for the purpose of feedback to an error detection result in an image recognition.SOLUTION: The present invention is directed to an information processing system for classifying verification images by a supervised image classification device. The verification images are input, and an image similar to the input verification images is extracted. The extracted image is provided with a label to thereby generate supervised data. With the generated supervised data, the supervised image classification device carries out learning.SELECTED DRAWING: Figure 4

Description

本発明は、情報処理システム、情報処理方法、プログラムに関する。   The present invention relates to an information processing system, an information processing method, and a program.

ここ数年、教師あり学習による画像認識技術として、ディープラーニングの研究が盛んにおこなわれている。ディープラーニングは、従来からあるニューラルネットワークを多層に重ねた機械学習の一つであり、学習用画像を用いて事前に学習させることで、画像分類などの問題を解決する。   In recent years, deep learning has been actively researched as an image recognition technology by supervised learning. Deep learning is one of machine learning in which a conventional neural network is stacked in multiple layers, and solves problems such as image classification by learning in advance using images for learning.

ディープラーニングによる画像認識で精度を高めるためには、学習用画像の確保、選定が重要になる。学習用画像は、事前学習や認識精度向上のための追加学習として使用するために、画像とそのコンテンツ情報をデータセットとして大量に用意しなければならない。例えば、「猫」というデータセットであれば、猫が写る画像とそのコンテンツ情報(品種名など。ラベル。)を対として、数百セットもしくはそれ以上用意する必要がある。   In order to improve the accuracy in image recognition by deep learning, it is important to secure and select images for learning. A large number of images and their content information must be prepared as a data set in order to be used as preliminary learning and additional learning for improving recognition accuracy. For example, in the case of a data set of "cat", it is necessary to prepare several hundred sets or more of an image showing a cat and its content information (such as a product name or the like) as a pair.

しかし、上記のようなデータセットを用意するには、非常に作業コストがかかることが多い。その理由としては、大量の画像を用意すること、それらのコンテンツ情報を対応付ける必要があること、そしてそのコンテンツ情報の対応付けは基本的に手動でおこなわなければならないことが挙げられる。   However, preparing the above-mentioned data set is often very expensive. The reason is that it is necessary to prepare a large number of images, to associate their content information, and to basically associate the content information manually.

以上のことから、ディープラーニングの事前・追加学習用画像の確保、選定が大きな課題の一つとなっており、それらの作成コストの軽減が強く望まれている。   From the above, securing and selecting images for deep learning in advance / additional learning has become one of the major issues, and reduction of their creation costs is strongly desired.

特許文献1には、画像・映像類似検索に使用するための学習辞書の質を向上させるために、追加画像の候補を選定する技術について記載がされている。   Patent Document 1 describes a technique for selecting additional image candidates in order to improve the quality of a learning dictionary for use in image / image similarity search.

特開2013−250881号公報JP, 2013-250881, A

特許文献1の技術では、学習辞書である画像群の平均特徴量と、候補画像の特徴量から類似度を算出し、その類似度が閾値よりも大きい場合に追加画像として選定する。   In the technique of Patent Document 1, the similarity is calculated from the average feature amount of the image group which is a learning dictionary and the feature amount of the candidate image, and when the similarity is larger than a threshold, it is selected as an additional image.

この方法によると、学習辞書が本来持っていた特徴量の傾向を変化させることなく、学習辞書の画像数を増やすことができるが、平均特徴量と傾向が異なる画像を候補として選定することはできない。   According to this method, the number of images in the learning dictionary can be increased without changing the tendency of the characteristic amount originally possessed by the learning dictionary, but an image having a different tendency from the average characteristic amount can not be selected as a candidate .

そのため、ディープラーニング等を用いた画像認識をおこなった際の、特徴量の傾向が異なることに起因する誤検出結果へのフィードバックをおこなうようなシステムには適用できない。   Therefore, it can not be applied to a system that performs feedback to a false detection result due to a difference in the tendency of feature amounts when performing image recognition using deep learning or the like.

そこで、本発明では、画像認識における誤検出結果へのフィードバックを目的とした、追加学習の候補となる画像を選定できる仕組みを提供することを目的とする。   Therefore, in the present invention, it is an object of the present invention to provide a mechanism capable of selecting an image to be a candidate for additional learning for the purpose of feedback to a false detection result in image recognition.

本発明の情報処理システムは、教師あり画像分類器により検証用画像の分類をする情報処理システムであって、検証用画像の入力をする画像入力手段と、前記画像入力手段により入力された検証用画像と類似する画像を抽出する類似画像抽出手段と、前記類似画像抽出手段により抽出した画像にラベルを付与することで教師データを作成する教師データ作成手段と、前記教師データ作成手段により作成された教師データを用いて、前記教師あり画像分類器を学習させる学習手段と、を備えることを特徴とする。   The information processing system according to the present invention is an information processing system that classifies a verification image by a supervised image classifier, and includes an image input unit that inputs a verification image, and the verification input by the image input unit. Similar image extraction means for extracting an image similar to an image, teacher data creation means for creating teacher data by giving a label to the image extracted by the similar image extraction means, and the teacher data creation means And learning means for learning the supervised image classifier using teacher data.

また、本発明の情報処理方法は教師あり画像分類器により検証用画像の分類をする情報処理システムにおける情報処理方法であって、検証用画像の入力をする画像入力工程と、前記画像入力工程により入力された検証用画像と類似する画像を抽出する類似画像抽出工程と、前記類似画像抽出工程により抽出した画像にラベルを付与することで教師データを作成する教師データ作成工程と、前記教師データ作成工程により作成された教師データを用いて、前記教師あり画像分類器を学習させる学習工程と、を備えることを特徴とする。   The information processing method according to the present invention is an information processing method in an information processing system for classifying a verification image by a supervised image classifier, and includes an image input step of inputting a verification image and the image input step. A similar image extracting step of extracting an image similar to the input verification image; a teacher data creating step of creating teacher data by applying a label to the image extracted by the similar image extracting step; And a learning step of training the supervised image classifier using the teacher data created by the step.

また、本発明のプログラムは、教師あり画像分類器により検証用画像の分類をする情報処理システムにおいて実行可能なプログラムであって、前記情報処理システムを、検証用画像の入力をする画像入力手段と、前記画像入力手段により入力された検証用画像と類似する画像を抽出する類似画像抽出手段と、前記類似画像抽出手段により抽出した画像にラベルを付与することで教師データを作成する教師データ作成手段と、前記教師データ作成手段により作成された教師データを用いて、前記教師あり画像分類器を学習させる学習手段として機能させることを特徴とする。   Further, a program according to the present invention is a program executable in an information processing system for classifying a verification image by a supervised image classifier, and the information processing system comprises an image input unit for inputting the verification image A similar image extracting unit that extracts an image similar to the verification image input by the image input unit; and a teacher data creating unit that creates teacher data by attaching a label to the image extracted by the similar image extracting unit And using the teacher data created by the teacher data creation means as a learning means for making the supervised image classifier learn.

本発明によれば、画像認識における誤検出結果へのフィードバックを目的とした、追加学習の候補となる画像を選定することが可能となる。   According to the present invention, it is possible to select an image to be a candidate for additional learning for the purpose of feedback to a false detection result in image recognition.

本発明の情報処理システムの構成を示す図The figure which shows the structure of the information processing system of this invention 図1に示した操作端末PC101、アプリケーションサーバ102、教師あり画像分類サーバ103、教師なし画像分類サーバ104、画像データベース105に適用可能な情報処理装置のハードウェア構成を示すブロック図A block diagram showing a hardware configuration of an information processing apparatus applicable to the operation terminal PC 101, the application server 102, the supervised image classification server 103, the unsupervised image classification server 104, and the image database 105 shown in FIG. 操作端末PC101、アプリケーションサーバ102、教師あり画像分類サーバ103、教師なし画像分類サーバ104、画像データベース105の機能を説明するための機能ブロック図Functional block diagram for explaining the functions of the operation terminal PC 101, the application server 102, the supervised image classification server 103, the unsupervised image classification server 104, and the image database 105 教師なし画像分類器を用いた教師あり画像分類器への学習用画像の選定処理を示すフローチャートFlow chart showing selection process of learning image to supervised image classifier using unsupervised image classifier 類似画像取得処理(ステップS409)を示すフローチャートFlowchart showing similar image acquisition process (step S409) 画像データの管理レコード情報テーブルのデータ構成例Data configuration example of management record information table of image data ステップS411において操作端末PC101に表示される画面の一例An example of a screen displayed on operation terminal PC 101 in step S411 ステップS405において操作端末PC101に表示される画面の一例An example of a screen displayed on operation terminal PC 101 in step S405

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の追加学習用画像の選定支援機能を適用した、情報処理システムの構成の一例を示すシステム構成図である。   FIG. 1 is a system configuration diagram showing an example of the configuration of an information processing system to which the additional learning image selection support function of the present invention is applied.

情報処理システムは、1または複数の操作端末PC101、1または複数のアプリケーションサーバ102、1または複数の教師あり画像分類サーバ103、1または複数の教師なし画像分類サーバ104、1または複数の画像データベース105が、ネットワークを介して接続される構成となっている。   The information processing system includes one or more operation terminals PC 101, one or more application servers 102, one or more supervised image classification servers 103, one or more unsupervised image classification servers 104, one or more image databases 105 Are connected via a network.

なお、本実施形態においてはアプリケーションサーバ102、教師あり画像分類サーバ103、教師あり画像分類サーバ104、データベース105をそれぞれ別の筐体として説明しているが、同じ筐体にこれらのサーバ、データベースの機能を備えるように構成しても良い。   In the present embodiment, the application server 102, the supervised image classification server 103, the supervised image classification server 104, and the database 105 are described as separate cases respectively. You may comprise so that a function may be provided.

操作端末PC101は、画像分類、画像分類器学習、候補画像登録の各操作をおこなうための端末であり、ネットワーク上に存在する。画像の分類と学習の操作にはウェブ操作画面(ウェブブラウザ上で操作)を使用し、ネットワークを介してアプリケーションサーバ102に接続する。   The operation terminal PC 101 is a terminal for performing operations of image classification, image classifier learning, and candidate image registration, and exists on the network. A web operation screen (operation on a web browser) is used for image classification and learning operations, and connection to the application server 102 is made via a network.

アプリケーションサーバ102は、画像分類、画像分類器学習、候補画像登録の制御をおこなうためのサーバであり、ネットワーク上に構築されている。アプリケーションサーバ102へは、操作端末PC101が接続する。アプリケーションサーバ102は、操作端末PC101から画像分類操作が行われた場合は教師あり画像分類サーバ103へ画像を送信し、分類結果を受信する。操作端末PC101から分類器の学習操作が行われた場合は、教師なし画像分類サーバ104へ画像を送信して学習候補となる類似画像クラスを受信し、そのクラス情報をもとに画像データベース105から学習に使用する画像データを取得し、取得した画像データを教師あり画像分類サーバ103へ送信する。操作端末PC101から候補画像登録操作が行われた場合は画像データベース105へ画像データを送信する。   The application server 102 is a server for controlling image classification, image classifier learning, and candidate image registration, and is built on a network. The operation terminal PC 101 is connected to the application server 102. When the image classification operation is performed from the operation terminal PC 101, the application server 102 transmits an image to the supervised image classification server 103, and receives the classification result. When the learning operation of the classifier is performed from the operation terminal PC 101, the image is transmitted to the unsupervised image classification server 104, the similar image class to be the learning candidate is received, and the image database 105 is generated based on the class information. The image data to be used for learning is acquired, and the acquired image data is transmitted to the supervised image classification server 103. When a candidate image registration operation is performed from the operation terminal PC 101, image data is transmitted to the image database 105.

教師あり画像分類サーバ103は、画像分類、画像分類器の学習をおこなうためのサーバであり、ネットワーク上に構築されている。教師あり画像分類サーバ103は、操作端末PC101から分類対象の画像データを受信した場合、その分類結果を送信する。操作端末PC101から分類器学習のための画像データを受信した場合、受信した画像データを用いて分類器を学習する。   The supervised image classification server 103 is a server for performing image classification and image classifier learning, and is built on a network. When the supervised image classification server 103 receives image data to be classified from the operation terminal PC 101, the supervised image classification server 103 transmits the classification result. When image data for classifier learning is received from the operation terminal PC 101, the classifier is learned using the received image data.

教師なし画像分類サーバ104は、教師あり画像分類サーバ103にある画像分類器を学習するための候補画像の選定をおこなうためのサーバであり、ネットワーク上に構築されている。教師なし画像分類サーバ104は、操作端末PC101から学習対象の画像データを受信した場合、その画像データと類似した類似画像クラスを送信する。   The unsupervised image classification server 104 is a server for selecting candidate images for learning the image classifier in the supervised image classification server 103, and is constructed on a network. When receiving image data to be learned from the operation terminal PC 101, the unsupervised image classification server 104 transmits a similar image class similar to the image data.

画像データベース105は、アプリケーションサーバ102の操作にもとづいて画像データを記憶、管理するサーバであり、ネットワーク上に構築されている。画像データベース105は、画像データのほかに、画像を管理レコード情報も記憶する。   The image database 105 is a server that stores and manages image data based on the operation of the application server 102, and is built on a network. The image database 105 stores management record information as well as image data.

以下、図2を用いて図1に示した操作端末PC101、アプリケーションサーバ102、教師あり画像分類サーバ103、教師なし画像分類サーバ104、画像データベース105に適用可能な情報処理装置のハードウェア構成について説明する。   Hereinafter, the hardware configuration of the information processing apparatus applicable to the operation terminal PC 101, the application server 102, the supervised image classification server 103, the unsupervised image classification server 104, and the image database 105 shown in FIG. Do.

図2は、図1に示した操作端末PC101、アプリケーションサーバ102、教師あり画像分類サーバ103、教師なし画像分類サーバ104、画像データベース105に適用可能な情報処理装置のハードウェア構成を示すブロック図である。   FIG. 2 is a block diagram showing a hardware configuration of an information processing apparatus applicable to the operation terminal PC 101, the application server 102, the supervised image classification server 103, the unsupervised image classification server 104, and the image database 105 shown in FIG. is there.

図2に示すように、情報処理装置では、システムバス200を介してCPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、記憶装置204、入力コントローラ205、音声入力コントローラ206、ビデオコントローラ207、メモリコントローラ208、よび通信I/Fコントローラ209が接続される。   As shown in FIG. 2, in the information processing apparatus, a central processing unit (CPU) 201, a read only memory (ROM) 202, a random access memory (RAM) 203, a storage device 204, an input controller 205, and a system bus 200. An audio input controller 206, a video controller 207, a memory controller 208, and a communication I / F controller 209 are connected.

CPU201は、システムバス200に接続される各デバイスやコントローラを統括的に制御する。   The CPU 201 centrally controls the devices and controllers connected to the system bus 200.

ROM202あるいは記憶装置204は、CPU201が実行する制御プログラムであるBIOS(Basic Input/Output System)やOS(Operating System)や、本情報処理方法を実現するためのコンピュータ読み取り実行可能なプログラムおよび必要な各種データ(データテーブルを含む)を保持している。   The ROM 202 or the storage device 204 is a control program executed by the CPU 201, such as a BIOS (Basic Input / Output System) or an OS (Operating System), a computer readable and executable program for realizing the information processing method, and various necessary items. It holds data (including data tables).

RAM203は、CPU201の主メモリ、ワークエリア等として機能する。CPU201は、処理の実行に際して必要なプログラム等をROM202あるいは記憶装置204からRAM203にロードし、ロードしたプログラムを実行することで各種動作を実現する。   The RAM 203 functions as a main memory, a work area, and the like of the CPU 201. The CPU 201 loads programs and the like necessary for execution of processing from the ROM 202 or the storage device 204 to the RAM 203, and implements various operations by executing the loaded programs.

入力コントローラ205は、キーボード/タッチパネル210などの入力装置からの入力を制御する。入力装置はこれに限ったものでなく、マウスやマルチタッチスクリーンなどの、複数の指でタッチされた位置を検出することが可能なタッチパネルであってもよい。   The input controller 205 controls an input from an input device such as the keyboard / touch panel 210. The input device is not limited to this, and may be a touch panel capable of detecting a position touched with a plurality of fingers, such as a mouse or a multi touch screen.

ユーザがタッチパネルに表示されたアイコンやカーソルやボタンに合わせて押下(指等でタッチ)することにより、各種の指示を行うことができる。   Various instructions can be given by the user pressing (touching with a finger or the like) according to an icon, a cursor or a button displayed on the touch panel.

この入力装置を用いて各種通信装置で利用可能な通信宛先に対する宛先を入力するようになっている。   This input device is used to input a destination for a communication destination that can be used by various communication devices.

音声入力コントローラ206は、マイク211からの入力を制御する。マイク211から入力された音声を音声認識することが可能となっている。   The voice input controller 206 controls an input from the microphone 211. It is possible to perform voice recognition of the voice input from the microphone 211.

ビデオコントローラ207は、ディスプレイ212などの外部出力装置への表示を制御する。ディスプレイは本体と一体になったノート型パソコンのディスプレイも含まれるものとする。なお、外部出力装置はディスプレイに限ったものははく、例えばプロジェクタであってもよい。また、前述のタッチ操作により受け付け可能な装置については、キーボード/タッチパネル210からの入力を受け付けることも可能となる。   The video controller 207 controls display on an external output device such as the display 212. The display shall also include the display of a notebook computer integrated with the main unit. The external output device is not limited to the display, and may be, for example, a projector. Further, with regard to devices that can be received by the above-described touch operation, it is also possible to receive an input from the keyboard / touch panel 210.

なおビデオコントローラ207は、表示制御を行うためのビデオメモリ(VRAM)を制御することが可能で、ビデオメモリ領域としてRAM203の一部を利用することもできるし、別途専用のビデオメモリを設けることも可能である。   The video controller 207 can control a video memory (VRAM) for display control, and can use a part of the RAM 203 as a video memory area, or can separately provide a dedicated video memory. It is possible.

本発明では、ユーザが情報処理装置を通常する場合の表示に用いられる第1のビデオメモリ領域と、所定の画面が表示される場合に、第1のビデオメモリ領域の表示内容に重ねての表示に用いられる第2のビデオメモリ領域を有している。ビデオメモリ領域は2つに限ったものではなく、情報処理装置の資源が許す限り複数有することが可能なものとする。   In the present invention, the first video memory area used for display when the user normally operates the information processing apparatus and the display content superimposed on the display content of the first video memory area when the predetermined screen is displayed And a second video memory area used for The video memory area is not limited to two, and can be plural as long as the resource of the information processing apparatus permits.

メモリコントローラ208は、外部メモリ213へのアクセスを制御する。外部メモリとしては、ブートプログラム、各種アプリケーション、フォントデータ、ユーザファイル、編集ファイル、および各種データ等を記憶する外部記憶装置(ハードディスク)、フレキシブルディスク(FD)、或いはPCMCIAカードスロットにアダプタを介して接続されるコンパクトフラッシュ(登録商標)メモリ等を利用可能である。   The memory controller 208 controls access to the external memory 213. The external memory is connected via an adapter to an external storage device (hard disk) that stores a boot program, various applications, font data, user files, editing files, various data, etc., a flexible disk (FD), or a PCMCIA card slot. Compact flash (registered trademark) memory etc. can be used.

通信I/Fコントローラ209、ネットワーク214を介して外部機器と接続・通信するものであり、ネットワークでの通信制御処理を実行する。例えば、TCP/IPを用いた通信やISDNなどの電話回線、および携帯電話の3G回線を用いた通信が可能である。   The communication I / F controller 209 connects and communicates with an external device via the network 214, and executes communication control processing in the network. For example, communications using TCP / IP, telephone lines such as ISDN, and 3G lines of mobile phones are possible.

なお、記憶装置204は情報を永続的に記憶するための媒体であって、その形態をハードディスク等の記憶装置に限定するものではない。例えば、SSD(Solid State Drive)などの媒体であってもよい。   The storage device 204 is a medium for permanently storing information, and the form thereof is not limited to a storage device such as a hard disk. For example, a medium such as a solid state drive (SSD) may be used.

また本実施形態における通信端末で行われる各種処理時の一時的なメモリエリアとしても利用可能である。   Moreover, it can also be used as a temporary memory area at the time of various processes performed by the communication terminal in the present embodiment.

図3は、図1に示した操作端末PC101、アプリケーションサーバ102、教師あり画像分類サーバ103、教師なし画像分類サーバ104、画像データベース105の機能を説明するための機能ブロック図である。   FIG. 3 is a functional block diagram for explaining the functions of the operation terminal PC 101, the application server 102, the supervised image classification server 103, the unsupervised image classification server 104, and the image database 105 shown in FIG.

情報処理システムにおいて、主に、操作端末PC101では画像分類や分類器学習の操作および処理結果の表示、アプリケーションサーバ102では画像分類処理と分類器学習処理の制御、教師あり画像分類サーバ103では画像分類および分類器学習の実行、教師なし画像分類サーバ104では分類器学習に用いる画像候補選定の実行、画像データベース105は分類器学習に用いる画像データの管理をおこなう。
操作端末PC101は、操作結果表示部301を持つ。
In the information processing system, the operation terminal PC 101 mainly displays operations of image classification and classifier learning and displays processing results, the application server 102 controls image classification processing and classifier learning processing, and the supervised image classification server 103 image classification. And, execution of classifier learning, unsupervised image classification server 104 executes selection of image candidates used for classifier learning, and image database 105 manages image data used for classifier learning.
The operation terminal PC 101 has an operation result display unit 301.

操作結果表示部301は、ウェブブラウザから専用URLにアクセスするウェブ管理画面により実現され、アプリケーションサーバ102に操作で入力した画像の分類表示要求を送信することにより、表示データを受信し、画像分類情報を表示する。また、ウェブ管理画面では、画像分類情報のほか、分類器学習操作、分類器学習に用いる候補画像の確認などについて確認できる。   The operation result display unit 301 is realized by a web management screen for accessing a dedicated URL from a web browser, and transmits display request for classification of an image input by operation to the application server 102 to receive display data, and image classification information Display In addition to the image classification information, the web management screen can confirm classifier learning operation, confirmation of candidate images used for classifier learning, and the like.

アプリケーションサーバ102は、操作制御部311、画像分類制御部312、分類器学習制御部313から構成される。   The application server 102 includes an operation control unit 311, an image classification control unit 312, and a classifier learning control unit 313.

アプリケーションサーバ102は操作端末PC101から各操作の表示要求を受信すると、操作制御部311が操作内容を解析する。操作制御部311は受信した要求から、画像の分類表示の操作、画像分類器の学習操作、分類学習に用いる候補画像の確認操作であるかを判断する。   When the application server 102 receives a display request for each operation from the operation terminal PC 101, the operation control unit 311 analyzes the contents of the operation. From the received request, the operation control unit 311 determines whether the operation is the display operation of the image classification, the learning operation of the image classifier, or the confirmation operation of the candidate image used for the classification learning.

画像分類制御部312は、操作制御部311で画像の分類表示の操作がおこなわれたと判断した場合、画像分類対象の画像データを教師あり画像分類サーバ103に送信し、その結果となる分類情報を受信する。受信した分類情報は、操作制御部311を介して操作端末PC101に送信する。   When the image classification control unit 312 determines that the operation of the classification display of the image is performed by the operation control unit 311, the image classification control unit 312 transmits the image data of the image classification target to the supervised image classification server 103, and the classification information resulting therefrom. To receive. The received classification information is transmitted to the operation terminal PC 101 via the operation control unit 311.

分類器学習制御部313は、操作制御部311で分類学習に用いる候補画像の確認操作がおこなわれたと判断した場合、教師なし画像分類サーバ104へ候補画像を選定する際の基となる画像データを送信して画像分類処理を実行させ、類似画像クラスを受信する。受信した類似画像クラスは、操作制御部311を介して操作端末PC101に送信する。操作制御部311で教師あり画像分類サーバ103への学習操作がおこなわれたと判断した場合、類似画像クラスを基に画像データベース105から該当する画像データを取得し、取得した画像データと類似画像クラスを分類器学習用データとして、教師あり画像分類サーバ103へ送信し、分類器の学習処理を実行させる。また、教師なし画像分類サーバ104への学習操作もおこなうことが可能であり、その場合は操作端末PC101から操作制御部311を介して受信した画像データを学習用データとして、教師なし画像分類サーバ104へ送信する。   If the classifier learning control unit 313 determines that the confirmation operation of the candidate image used for classification learning has been performed by the operation control unit 311, the image data serving as a basis for selecting candidate images to the unsupervised image classification server 104 is used. Send to perform image classification processing and receive similar image class. The received similar image class is transmitted to the operation terminal PC 101 via the operation control unit 311. If the operation control unit 311 determines that a supervised learning operation to the image classification server 103 is performed, the corresponding image data is acquired from the image database 105 based on the similar image class, and the acquired image data and the similar image class are The data is transmitted to the supervised image classification server 103 as classifier learning data, and the learning process of the classifier is executed. In addition, it is possible to perform a learning operation on the unsupervised image classification server 104. In this case, the unsupervised image classification server 104 uses the image data received from the operation terminal PC 101 via the operation control unit 311 as learning data. Send to

教師あり画像分類サーバ103は、データ送受信制御部321、画像分類解析部322、分類器制御部323、教師あり学習制御部324から構成される。   The supervised image classification server 103 includes a data transmission / reception control unit 321, an image classification analysis unit 322, a classifier control unit 323, and a supervised learning control unit 324.

教師あり画像分類サーバ103は、アプリケーションサーバ102から画像分類対象の画像データ、または分類器学習用データを受信する。データ送受信制御部321は、受信したデータが画像分類対象の画像データであるか、分類器学習用データであるかを判断する。   The supervised image classification server 103 receives image data as a target of image classification or data for classifier learning from the application server 102. The data transmission / reception control unit 321 determines whether the received data is image data as an image classification target or classifier learning data.

画像分類解析部322は、データ送受信制御部321で画像分類対象の画像データを受信したと判断した場合に、画像分類解析をおこなう。画像分類解析では、分類器制御部323に分類対象の画像データを入力し、その分類結果を取得する。取得した結果は、データ送受信制御部321を介して、アプリケーションサーバ102に送信する。   The image classification analysis unit 322 performs image classification analysis when it is determined by the data transmission / reception control unit 321 that the image data of the image classification target has been received. In image classification analysis, image data to be classified is input to the classifier control unit 323, and the classification result is acquired. The acquired result is transmitted to the application server 102 via the data transmission / reception control unit 321.

分類器制御部323は、画像分類解析部322から画像データを入力された場合は分類結果を出力する。教師あり学習制御部324から分類器学習用データを入力された場合は分類器の教師あり学習をおこなう。   When the image data is input from the image classification analysis unit 322, the classifier control unit 323 outputs the classification result. When data for classifier learning is input from the supervised learning control unit 324, supervised learning of the classifier is performed.

教師あり学習制御部324は、データ送受信制御部321で分類器学習用データを受信したと判断した場合、分類器の教師あり学習をおこなう。分類器の教師あり学習では、分類器制御部323に学習用データを入力し、分類器を学習させる。   When the supervised learning control unit 324 determines that the data transmission / reception control unit 321 has received the classifier learning data, the supervised learning control unit 324 performs supervised learning of the classifier. In supervised learning of a classifier, learning data is input to the classifier control unit 323 to make the classifier learn.

教師なし画像分類サーバ104は、データ送受信制御部331、画像選定制御部332、分類器制御部333、教師なし学習制御部334から構成される。   The unsupervised image classification server 104 includes a data transmission / reception control unit 331, an image selection control unit 332, a classifier control unit 333, and an unsupervised learning control unit 334.

教師なし画像分類サーバ104は、アプリケーションサーバ102から教師あり学習データの候補画像選定の基となる画像データ、分類器学習用データを受信する。データ送受信部331は、受信したデータが候補画像選定の基となる画像データであるか、分類器学習用データであるかを判断する。   The unsupervised image classification server 104 receives, from the application server 102, image data serving as a basis for selecting candidate images of supervised learning data, and classifier learning data. The data transmitting / receiving unit 331 determines whether the received data is image data to be a basis of candidate image selection or classifier learning data.

画像選定制御部332は、データ送受信制御部331で教師あり学習データの候補画像選定の基となる画像データを受信したと判断した場合に、候補画像の選定処理をおこなう。候補画像の選定では、分類制御部333に選定基の画像データを入力し、その結果である類似画像クラスを取得する。取得したクラス情報は、データ送受信制御部331を介して、アプリケーションサーバ102に送信する。   The image selection control unit 332 performs candidate image selection processing when it is determined by the data transmission / reception control unit 331 that image data serving as a basis for selecting candidate images of supervised learning data has been received. In the selection of candidate images, the image data of the selection base is input to the classification control unit 333, and the similar image class as a result is acquired. The acquired class information is transmitted to the application server 102 via the data transmission / reception control unit 331.

分類器制御部333は、画像選定制御部332から画像データを入力された場合はその画像の類似画像クラスを出力する。教師なし学習制御部334から分類器学習用データを入力された場合は、分類器の教師なし学習をおこなう。   When image data is input from the image selection control unit 332, the classifier control unit 333 outputs a similar image class of the image. When classifier learning data is input from the unsupervised learning control unit 334, unsupervised learning of the classifier is performed.

教師なし学習制御部334は、データ送受信制御部321で分類器学習用データを受信したと判断した場合、分類器の教師なし学習をおこなう。分類器の教師なし学習では、分類器制御部333に学習用データを入力し、分類器を学習させる。   The unsupervised learning control unit 334 performs unsupervised learning of the classifier when the data transmission / reception control unit 321 determines that the classifier learning data is received. In unsupervised learning of a classifier, learning data is input to the classifier control unit 333 to learn the classifier.

画像データベース105は、データ送受信制御部341、レコート管理制御部342、画像データ用記憶領域343、管理レコード用記憶領域344から構成される。   The image database 105 includes a data transmission / reception control unit 341, a record management control unit 342, an image data storage area 343, and a management record storage area 344.

画像データベース105は、アプリケーションサーバ102から画像データの登録または取得、管理情報更新の要求を受信する。データ送受信部341は、受信したデータが画像データ登録または取得要求、管理情報更新要求であるかを判断する。   The image database 105 receives a request for registration or acquisition of image data and update of management information from the application server 102. The data transmission / reception unit 341 determines whether the received data is an image data registration or acquisition request or a management information update request.

レコード管理制御部342は、データ送受信部341の判断内容により、画像データの登録、取得、管理情報の更新をおこなう。画像データの登録と判断した場合、画像データ用記憶領域343に画像データを保存し、管理レコード用記憶領域344に新規管理レコード情報を作成する。画像データの取得と判断した場合、管理レコード用記憶領域344から条件に合う画像データを検索し、その検索結果を基に画像データ用記憶領域343から画像データを取得し、データ送受信制御部341を介してアプリケーションサーバ102に取得した画像データを送信する。管理情報の更新と判断した場合、管理レコード用記憶領域344から該当する管理レコードの更新をおこなう。   The record management control unit 342 registers and acquires image data, and updates management information according to the determination content of the data transmission / reception unit 341. When it is determined that the image data is registered, the image data is stored in the image data storage area 343, and new management record information is created in the management record storage area 344. When it is determined that the image data is to be acquired, the management record storage area 344 is searched for the image data meeting the conditions, the image data is acquired from the image data storage area 343 based on the search result, and the data transmission / reception control unit 341 The acquired image data is transmitted to the application server 102 via the interface. If it is determined that the management information is updated, the corresponding management record is updated from the management record storage area 344.

次に図4に示すフローチャートを用いて、教師なし画像分類器を用いた教師あり画像分類器への学習用画像の選定処理について説明する。   Next, processing for selecting a learning image to a supervised image classifier using an unsupervised image classifier will be described using the flowchart shown in FIG.

なお、図4においてはアプリケーションサーバ102は図示していないが、操作端末PC101と教師あり画像分類サーバ103との間の通信、操作端末PC101と教師なし画像分類サーバ104との間の通信については、アプリケーションサーバ102が介在するものである。   Although the application server 102 is not shown in FIG. 4, the communication between the operation terminal PC 101 and the supervised image classification server 103 and the communication between the operation terminal PC 101 and the unsupervised image classification server 104 are as follows. The application server 102 intervenes.

ステップS401では、操作端末PC101のCPU201は、ユーザからの指示により検証用画像を受け付け、当該画像を教師あり画像分類サーバ103に送信する。   In step S401, the CPU 201 of the operation terminal PC 101 receives the verification image according to an instruction from the user, and transmits the image to the supervised image classification server 103.

検証用画像は、画像分類の精度検証を行うための画像データである。   The verification image is image data for performing accuracy verification of the image classification.

ステップS402では、教師あり画像分類サーバ103のCPU201は、ステップS401で操作端末PC101から送信された検証用画像を取得する。   In step S402, the CPU 201 of the supervised image classification server 103 acquires the verification image transmitted from the operation terminal PC 101 in step S401.

ステップS403では、教師あり画像分類サーバ103のCPU201は、ステップS402で取得した画像に対して、分類推定を行う。   In step S403, the CPU 201 of the supervised image classification server 103 performs classification estimation on the image acquired in step S402.

分類推定は、教師あり画像分類器を使用する。教師あり画像分類器は、CNN(Convolutional Neural Network)などの公知の技術を利用するものとする。   Classification estimation uses a supervised image classifier. The supervised image classifier uses a known technology such as CNN (Convolutional Neural Network).

ステップS404では、教師あり画像分類サーバ103のCPU201は、ステップS403の処理の結果を操作端末PC101に送信する。   In step S404, the CPU 201 of the supervised image classification server 103 transmits the processing result of step S403 to the operation terminal PC 101.

ステップS405では、操作端末PC101のCPU201は、教師あり画像分類サーバ103から送信された結果を受信し、表示部に表示する。   In step S405, the CPU 201 of the operation terminal PC 101 receives the result transmitted from the supervised image classification server 103 and displays it on the display unit.

ステップS406では、操作端末PC101のCPU201は、ユーザからステップS405で受信した結果に対する評価を受け付ける。具体的には、図8に示す画面を介して、分類推定結果が適切である否かの選択を受け付ける。   In step S406, the CPU 201 of the operation terminal PC 101 receives an evaluation of the result received in step S405 from the user. Specifically, the selection of whether or not the classification estimation result is appropriate is accepted through the screen shown in FIG.

ステップS407であ、操作端末PC101のCPU201は、ステップS406において受け付けた評価が、分類推定結果が適切である旨の評価であったかを判定する。   In step S407, the CPU 201 of the operation terminal PC 101 determines whether the evaluation accepted in step S406 is an evaluation that the classification estimation result is appropriate.

分類推定結果が適切である旨の評価の場合(ステップS407:YES)は、本フローチャートの処理を終了する。   In the case of evaluation that the classification estimation result is appropriate (step S407: YES), the processing of this flowchart ends.

分類推定結果が適切ではない旨の評価の場合(ステップS407:NO)は、処理をステップS408に移行する。   In the case of the evaluation that the classification estimation result is not appropriate (step S407: NO), the process proceeds to step S408.

ステップS408では、操作端末PC101のCPU201は、教師なし画像分類サーバ104に対して、教師あり画像分類器の学習に用いる画像を抽出する旨の指示を送信する。   In step S408, the CPU 201 of the operation terminal PC 101 transmits, to the unsupervised image classification server 104, an instruction to extract an image used for learning of the supervised image classifier.

ステップS409では、教師なし画像分類サーバ104のCPU201は、教師あり画像分類器の学習に用いる画像の候補を、画像データベース105から抽出する。候補画像の抽出は、教師なし画像分類器を使用し、検証用画像と類似する画像を抽出する。類似画像として判断するのに使用する特徴は、色やテクスチャ、形状などのほか、類似性を表す他の特徴であってもよい。それらの特徴から画像を自動抽出できるよう、教師なし画像分類器を事前に学習しておくものとする。なお、教師なし画像分類器は、SOM(Self Organizing Map)などの公知の技術を用いるものとする。   In step S409, the CPU 201 of the unsupervised image classification server 104 extracts image candidates used for learning of the supervised image classifier from the image database 105. The candidate image extraction uses an unsupervised image classifier to extract an image similar to the verification image. The features used to determine as similar images may be colors, textures, shapes, etc., as well as other features representing similarity. An unsupervised image classifier should be trained in advance so that images can be extracted automatically from those features. Note that the unsupervised image classifier uses a known technique such as SOM (Self Organizing Map).

ステップS409の処理の詳細については、図5を用いて後述する。   Details of the process of step S409 will be described later with reference to FIG.

ステップS410では、教師なし画像分類サーバ104のCPU201は、ステップS409で抽出した候補画像のデータを操作端末PC101に対して送信する。   In step S410, the CPU 201 of the unsupervised image classification server 104 transmits the data of the candidate image extracted in step S409 to the operation terminal PC 101.

ステップS411では、操作端末PC101のCPU201は、ステップS410で教師なし画像分類サーバ104から送信された画像を受信し、表示部に表示する。本ステップで表示される画面の一例を図7に示す。   In step S411, the CPU 201 of the operation terminal PC 101 receives the image transmitted from the unsupervised image classification server 104 in step S410, and displays the image on the display unit. An example of the screen displayed in this step is shown in FIG.

ステップS412では、操作端末PC101のCPU201は、ユーザの指示に従い、教師データを作成する。具体的な処理は、図7を用いて後述する。   In step S412, the CPU 201 of the operation terminal PC 101 creates teacher data in accordance with the user's instruction. Specific processing will be described later with reference to FIG.

ステップS413では、操作端末PC101のCPU201は、ステップS412で作成した教師データを教師あり画像分類サーバ103に送信する。   In step S413, the CPU 201 of the operation terminal PC 101 transmits the teacher data created in step S412 to the supervised image classification server 103.

ステップS414では、教師あり画像分類サーバ103のCPU201は、ステップS413で操作端末PC101から送信された教師データを受信し、当該教師データを教師あり分類器に入力して学習させる。   In step S414, the CPU 201 of the supervised image classification server 103 receives the teacher data transmitted from the operation terminal PC 101 in step S413, and inputs the teacher data to the supervised classifier for learning.

ステップS415では、教師あり画像分類サーバ103のCPU201は、ステップS414で学習に使用した画像データが、学習用画像の候補から取り除かれるよう、画像データベース105の管理レコードに記録する。学習に使用したことを記録することで、次回以降の学習の候補画像の抽出対象から除外されるようにし、誤って学習に再利用されることを防ぐ。   In step S415, the CPU 201 of the supervised image classification server 103 records the image data used for learning in step S414 in the management record of the image database 105 so as to be removed from the learning image candidates. By recording what has been used for learning, it is excluded from the extraction targets of candidate images for learning from the next time on, and it is prevented from being erroneously reused for learning.

そして、処理をステップS403に戻す。ここで処理をステップS403に戻すのは、ステップS414における学習の効果を検証するためである。そのため、次のステップS403の処理では、再度同じ検証用画像を用いて分類推定処理を実行する。   Then, the process returns to step S403. The processing is returned to step S403 in order to verify the effect of learning in step S414. Therefore, in the process of the next step S403, the classification estimation process is executed again using the same verification image.

次に、図5を参照して、本実施形態の類似画像取得処理(ステップS409)について説明する。   Next, the similar image acquisition process (step S409) according to the present embodiment will be described with reference to FIG.

ステップS501では、教師なし画像分類サーバ104のCPU201は、検証用画像の特徴量を算出する。算出する特徴量は、色やテクスチャ、形状などのほか、画像の類似性を表す他の特徴であってもよい。これらはユーザにより設定されるものとする。   In step S501, the CPU 201 of the unsupervised image classification server 104 calculates the feature amount of the verification image. The feature quantity to be calculated may be not only the color, the texture, the shape, etc., but also another feature representing the similarity of the image. These are set by the user.

例えば、色特徴に重み付けをして検証用画像の特徴量を算出し、当該特徴量を用いて類似する画像を抽出することで、教師あり画像分類器に対して色特徴による分類を学習させることが可能となる。このように、教師あり画像分類器に対してどのような学習をさせたいかにより、どの特徴を用いるかを決定する。   For example, the feature amount of the verification image is calculated by weighting the color feature, and the similar image is extracted using the feature amount to make the supervised image classifier learn the classification by the color feature. Is possible. In this way, which feature is used is determined depending on what kind of learning is desired for the supervised image classifier.

ステップS502では、教師なし画像分類サーバ104のCPU201は、ステップS501で算出した特徴量を基に、教師なし画像学習器を用いて、検証用画像を類似画像クラスに分類する。類似画像クラスは、画像が持つ特徴量により、類似しているものを取りまとめるための情報であり、類似していると判断された画像は同一のクラスに所属する。この情報は、画像データベース105に記憶されている各画像データの管理レコードに類似画像クラス情報として、事前に分類、記録されているものとする。管理レコードの記載例は、図6の説明で後述する。   In step S502, the CPU 201 of the unsupervised image classification server 104 classifies the image for verification into the similar image class using the unsupervised image learning device based on the feature quantity calculated in step S501. The similar image class is information for organizing similar images according to the feature amount of the image, and the images determined to be similar belong to the same class. It is assumed that this information is classified and recorded in advance as similar image class information in the management record of each image data stored in the image database 105. A description example of the management record will be described later in the description of FIG.

類似画像クラスの分類に使用する教師なし画像分類器は、SOMなど、教師なし学習による分類器であればいずれでもよい。   The unsupervised image classifier used to classify similar image classes may be any classifier by unsupervised learning such as SOM.

ステップS503では、教師なし画像分類サーバ104のCPU201は、ステップS502で分類した類似画像クラスを基に、画像データベース105から同一クラスに所属する画像データを取得し、候補画像リストを作成する。候補画像リストは、各画像データと管理レコードを対にしたリストで構成される。   In step S503, the CPU 201 of the unsupervised image classification server 104 acquires image data belonging to the same class from the image database 105 based on the similar image class classified in step S502, and creates a candidate image list. The candidate image list is composed of a list in which each image data and management record are paired.

また、同一クラスに所属する画像データだけでなく、閾値より類似度の高いクラスの画像データも候補画像としてリストにする。この処理により、図7において、同一の類似画像クラスに所属する画像のみを表示したり、類似度が閾値より近い類似画像クラスも含めて候補画像を表示したりすることが可能となる。   Further, not only image data belonging to the same class, but also image data of a class having a higher degree of similarity than a threshold value is listed as a candidate image. By this processing, in FIG. 7, it is possible to display only images belonging to the same similar image class or to display candidate images including similar image classes whose similarity is closer than the threshold.

また、本実施形態では、候補画像を類似画像クラス情報を基にして抽出したが、その他の情報(例えば、画像カテゴリ情報など)を各画像にあらかじめ付与しておき、それらを組み合わせた条件を基に抽出してもよい。   Further, in the present embodiment, the candidate image is extracted based on the similar image class information, but other information (for example, image category information etc.) is added to each image in advance, and a condition combining these is May be extracted.

ステップS504では、教師なし画像分類サーバ104のCPU201は、ステップS503で作成した候補画像リストに登録されている各画像データについて、既に教師あり分類器の学習に使用されているかを判断する。   In step S504, the CPU 201 of the unsupervised image classification server 104 determines whether each image data registered in the candidate image list created in step S503 is already used for learning of a supervised classifier.

学習に使用済みであるかの情報は、各画像データの管理レコードに記録されているものとする(図6)。   Information as to whether it has been used for learning is recorded in the management record of each image data (FIG. 6).

学習に使用済みである場合(ステップS504:YES)は、処理をステップS505に移行する。   If it has been used for learning (step S504: YES), the process proceeds to step S505.

学習にしようしていない場合(ステップS504:NO)は、本フローチャートの処理を終了し、ステップS410の処理に移行する。   If learning is not desired (step S504: NO), the processing of this flowchart ends, and the process proceeds to the processing of step S410.

ステップS505では、教師なし画像分類サーバ104のCPU201は、ステップS504で学習に使用済みと判断された各画像データを、候補画像リストから削除する。
そして、ステップS410の処理に移行する。
In step S505, the CPU 201 of the unsupervised image classification server 104 deletes each image data determined to be used for learning in step S504 from the candidate image list.
Then, the process proceeds to step S410.

以上説明したように、本発明では、教師あり画像分類器の分類精度を向上させるための学習において、検証用画像に類似する画像を教師なし画像分類器により抽出する。   As described above, in the present invention, in learning for improving classification accuracy of a supervised image classifier, an image similar to the verification image is extracted by the unsupervised image classifier.

このような処理により、大量の候補画像の中から教師あり画像分類器の分類精度向上に適した画像を抽出することが可能となる。   Such a process makes it possible to extract an image suitable for improving the classification accuracy of the supervised image classifier from among a large number of candidate images.

具体的には、従来は認識精度の悪かった形態の「自動車」について、当該自動車と類似する形態の自動車の画像を学習させることで、当該形態の自動車について認識精度を高めることが可能となる。その結果、様々な形態の自動車を認識できるようになり、画像分類の精度を高めることが可能となる。   Specifically, it is possible to improve the recognition accuracy of the car of the form by learning the image of the car of the form similar to the car with respect to the “car” of the form of the recognition accuracy which is conventionally poor. As a result, it becomes possible to recognize various forms of vehicles and to improve the accuracy of image classification.

また、ユーザは抽出された画像の中から学習用画像を選定することになるため、学習用画像を選定する作業の効率化を図ることが可能となる。   In addition, since the user selects a learning image from the extracted images, it is possible to improve the efficiency of the work of selecting a learning image.

次に図6を用いて、画像データの管理レコード情報テーブルのデータ構成例について説明する。   Next, a data configuration example of a management record information table of image data will be described using FIG.

図6は、画像データベース105に記録している画像データを管理するための、管理レコードのデータ構成例である。   FIG. 6 shows an example of the data configuration of a management record for managing image data stored in the image database 105. As shown in FIG.

図6(A)は、画像データの所属する類似画像クラスを表現するデータ構成例である。   FIG. 6A shows an example of data configuration representing a similar image class to which image data belongs.

画像データを識別する情報である画像IDと、当該画像データが属する類似画像クラス(ノード)を識別するノードIDとが対応付けて登録されている。   An image ID, which is information for identifying image data, and a node ID for identifying a similar image class (node) to which the image data belongs are registered in association with each other.

画像データは、類似画像クラス情報により、類似する画像同士を関連付けて管理される。同じ類似画像クラスに所属していれば、それらの画像は類似する物として取り扱われる。   The image data is managed by associating similar images with similar image class information. If they belong to the same similar image class, those images are treated as similar ones.

図6(B)は、画像データの教師あり画像分類器学習への使用状況を表現するデータ構成例である。   FIG. 6 (B) is an example of a data configuration representing a use situation of supervised image classifier learning of image data.

画像IDと学習済みであるかを示す情報が対応付けて登録されている。図6(B)の例では、trueが登録されていれば学習済みであることを、falseが登録されていれば学習済みではないことを意味している。   The image ID and the information indicating whether it has been learned are registered in association with each other. In the example of FIG. 6B, it means that learning is completed if true is registered, and learning is not performed if false is registered.

図6(C)は、画像データの類似画像クラス情報を表現するデータ構成例である。   FIG. 6C shows an example of data configuration that expresses similar image class information of image data.

類似画像クラスを識別する情報であるノードIDと当該類似画像クラスに所属する画像データの特徴を示す情報(特徴A〜特徴Z)とが対応付けて登録されている。   A node ID, which is information for identifying a similar image class, and information (a feature A to a feature Z) indicating features of image data belonging to the similar image class are registered in association with each other.

図6(C)における特徴は、教師なし画像分類器で分類する際に指標となる特徴量である。特徴量の数は任意である。また、特徴量の値は、同じ類似画像クラスに所属する画像データの平均値や、その他の指標から算出した値のいずれであってもよい。この特徴量は、教師なし画像分類器の種類により、分類辞書としても使用してもよい。   The feature in FIG. 6C is a feature that serves as an index when classifying with the unsupervised image classifier. The number of feature quantities is arbitrary. Further, the value of the feature amount may be either an average value of image data belonging to the same similar image class or a value calculated from another index. This feature may also be used as a classification dictionary, depending on the type of unsupervised image classifier.

次に、図7を用いて、ステップS411において操作端末PC101に表示される画面について説明する。   Next, the screen displayed on the operation terminal PC 101 in step S411 will be described using FIG.

図7に示す画面は、ユーザからの教師データ作成の指示を受け付ける画面である。図7の画面において入力された情報に従い、教師あり画像分類器の学習に使用するための教師データの作成が行われる。   The screen shown in FIG. 7 is a screen for receiving an instruction of teacher data creation from the user. According to the information input on the screen of FIG. 7, creation of teacher data to be used for learning of the supervised image classifier is performed.

図7に示す画面は、ステップS401で入力を受け付けた検証用画像を表示する領域701、当該画像に対する分類推定結果を表示する領域702、当該検証用画像に対して付与されるラベルの選択を受け付ける領域703、画像表示範囲の指定を受け付ける領域704、ステップS409の処理により抽出された画像を表示する領域705等から構成される。   The screen shown in FIG. 7 includes an area 701 for displaying the verification image received at step S401, an area 702 for displaying the classification estimation result for the image, and a selection of a label attached to the verification image. An area 703, an area 704 for receiving designation of an image display range, and an area 705 for displaying an image extracted by the process of step S409 are included.

ラベルの選択を受け付ける領域703では、検証用画像の正しい分類結果の選択を受け付ける。例えば、図7の例では、「自動車」、「乗用車」のラベルが選択されていることを示している。指定できるラベルは、教師あり分類器が分類できるものとする。また指定する分類ラベルは、単一指定のほか、複数指定も可能である。   An area 703 for receiving the selection of the label receives the selection of the correct classification result of the verification image. For example, the example of FIG. 7 indicates that the labels "car" and "passenger car" are selected. Labels that can be specified are those that can be classified by a supervised classifier. In addition to single designation, multiple designations can also be made for the classification labels to be designated.

また、画像表示領域に表示されチェックがなされた画像に対しても、領域703で選択されたラベルの画像として学習される。   Further, the image displayed in the image display area and checked is also learned as the image of the label selected in the area 703.

画像表示範囲の指定領域704は、画像表示領域705に表示される画像の範囲を指定できる。   The designated area 704 of the image display range can designate the range of the image displayed in the image display area 705.

候補画像は、検証用画像を教師なし画像分類した結果である類似画像クラス情報を基に選定される。   The candidate images are selected based on similar image class information which is a result of unsupervised image classification of the verification image.

その際、範囲の指定領域704において指定された条件に従い、例えば、同一の類似画像クラスに所属する画像のみを表示したり、類似度が閾値より近い類似画像クラスも含めて候補画像を表示したりする。   At that time, for example, only images belonging to the same similar image class may be displayed, or candidate images may be displayed including similar image classes whose similarity is closer than a threshold, according to the conditions specified in the range specification region 704. Do.

画像表示領域705は、表示範囲の指定704で指定された内容に従い、教師あり画像分類器の学習に使用する候補画像の一覧を表示する。学習に使用する画像は、画像を選択されることで(チェックをされることで)指定される。一括選択ボタン706が押下されると、表示された全ての画像が選択されたことになる。指定後、学習実行ボタン707が押下されると、当該選択された画像に対して、領域703において選択されたラベルが付与され、教師あり画像分類器の学習が実行される。   The image display area 705 displays a list of candidate images used for learning of the supervised image classifier in accordance with the content designated by the designation of the display range 704. The image used for learning is designated (selected) by selecting the image. When the batch selection button 706 is pressed, all the displayed images are selected. After designation, when the learning execution button 707 is pressed, the label selected in the area 703 is given to the selected image, and learning of the supervised image classifier is executed.

図8は、ステップS405において操作端末PC101に表示される画面の一例である。   FIG. 8 is an example of a screen displayed on the operation terminal PC 101 in step S405.

図8に示す画面を介して、ユーザから分類推定結果が適切であったか否か、学習が必要であるかの指示を受け付ける(S406)。   An instruction is received from the user via the screen shown in FIG. 8 as to whether or not the classification estimation result is appropriate and whether learning is necessary (S406).

図8に示す通り、ステップS401で入力を受け付けた検証用画像801と、その分類推定結果802とが表示されている。   As shown in FIG. 8, the verification image 801 for which the input has been received in step S401 and the classification estimation result 802 are displayed.

適切ボタン803が押下されることで、分類推定結果が適切であった旨の結果を受け付ける(ステップS407:YES)。学習ボタン804が押下されることで、分類推定結果が適切ではない旨の結果を受け付ける(ステップS407:NO)。   By pressing the appropriate button 803, a result indicating that the classification estimation result is appropriate is received (step S407: YES). By pressing the learning button 804, a result indicating that the classification estimation result is not appropriate is received (step S407: NO).

また、本発明におけるプログラムは、図4、図5の処理をコンピュータに実行させるプログラムである。なお、本発明におけるプログラムは、図4、図5の各処理ごとのプログラムであってもよい。   Furthermore, a program according to the present invention is a program that causes a computer to execute the processing of FIGS. The program in the present invention may be a program for each process of FIGS. 4 and 5.

以上のように、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読み出し、実行することによっても本発明の目的が達成されることは言うまでもない。   As described above, the recording medium recording the program for realizing the functions of the above-described embodiments is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program stored in the recording medium. It goes without saying that the object of the present invention can also be achieved by reading and executing.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記録した記録媒体は本発明を構成することになる。   In this case, the program itself read out from the recording medium realizes the novel function of the present invention, and the recording medium recording the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク等を用いることが出来る。   As a recording medium for supplying the program, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, magnetic tape, non-volatile memory card, ROM, EEPROM, silicon A disk etc. can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program read by the computer, not only the functions of the above-described embodiment are realized, but also an operating system (OS) or the like running on the computer is actually executed based on the instructions of the program. It goes without saying that the processing is partially or entirely performed, and the processing realizes the functions of the above-described embodiments.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program read from the recording medium is written to the memory provided to the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is read based on the instruction of the program code. It goes without saying that the case where the CPU or the like provided in the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiment are realized by the processing.

また、本発明は、複数の機器から構成されるシステムに適用しても、ひとつの機器から成る装置に適用しても良い。また、本発明は、システムあるいは装置にプログラムを供給することによって達成される場合にも適応できることは言うまでもない。この場合、本発明を達成するためのプログラムを格納した記録媒体を該システムあるいは装置に読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。   Further, the present invention may be applied to a system constituted by a plurality of devices or to an apparatus comprising a single device. It goes without saying that the present invention can also be applied to the case where it is achieved by supplying a program to a system or apparatus. In this case, by reading a recording medium storing a program for achieving the present invention into the system or apparatus, the system or apparatus can receive the effects of the present invention.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。   Further, by downloading and reading out a program for achieving the present invention from a server on a network, a database or the like by a communication program, the system or apparatus can receive the effects of the present invention. In addition, the structure which combined each embodiment mentioned above and its modification is also contained in this invention altogether.

101 操作端末PC
102 アプリケーションサーバ
103 教師あり画像分類サーバ
104 教師なし画像分類サーバ
105 画像データベース
101 Operation terminal PC
102 Application server 103 Supervised image classification server 104 Unsupervised image classification server 105 Image database

Claims (8)

教師あり画像分類器により検証用画像の分類をする情報処理システムであって、
検証用画像の入力をする画像入力手段と、
前記画像入力手段により入力された検証用画像と類似する画像を抽出する類似画像抽出手段と、
前記類似画像抽出手段により抽出した画像にラベルを付与することで教師データを作成する教師データ作成手段と、
前記教師データ作成手段により作成された教師データを用いて、前記教師あり画像分類器を学習させる学習手段と、
を備えることを特徴とする情報処理システム。
An information processing system for classifying a verification image by a supervised image classifier, comprising:
Image input means for inputting a verification image;
A similar image extraction unit that extracts an image similar to the verification image input by the image input unit;
Teacher data creation means for creating teacher data by giving a label to the image extracted by the similar image extraction means;
Learning means for learning the supervised image classifier using the teacher data created by the teacher data creation means;
An information processing system comprising:
前記類似画像抽出手段は、教師なし画像分類器を用いて前記検証用画像と類似する画像を抽出することを特徴とする請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the similar image extraction unit extracts an image similar to the verification image using an unsupervised image classifier. 前記類似画像抽出手段により抽出された画像から、ユーザにより前記学習手段による学習に用いる画像の選択を受け付ける選択受付手段をさらに備え、
前記教師データ作成手段は、前記選択受付手段により選択された画像にラベルを付与することで教師データを作成することを特徴とする請求項1または2に記載の情報処理システム。
The image processing apparatus further comprises selection accepting means for accepting selection of an image used for learning by the learning means from the image extracted by the similar image extracting means by the user.
The information processing system according to claim 1 or 2, wherein the teacher data creation unit creates teacher data by attaching a label to the image selected by the selection receiving unit.
ユーザから、前記検証用画像に対する教師あり画像分類器での分類結果に対する評価結果を受け付ける評価受付手段をさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。   The information processing system according to any one of claims 1 to 3, further comprising an evaluation receiving unit that receives, from the user, an evaluation result on a classification result in the supervised image classifier for the verification image. 類似画像抽出手段は、前記評価受付手段により受け付けた評価結果が、学習が必要な旨の結果であった場合、当該検証用画像に類似する画像を抽出することを特徴とする請求項4に記載の情報処理システム。   The similar image extraction means is characterized in that, when the evaluation result received by the evaluation reception means is a result indicating that learning is necessary, the similar image extraction means extracts an image similar to the verification image. Information processing system. 類似画像抽出手段は、前記教師データ作成手段によりすでに教師データの作成に用いられた画像については抽出しないことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理システム。   The information processing system according to any one of claims 1 to 5, wherein the similar image extraction means does not extract an image which has already been used to create teacher data by the teacher data creation means. 教師あり画像分類器により検証用画像の分類をする情報処理システムにおける情報処理方法であって、
検証用画像の入力をする画像入力工程と、
前記画像入力工程により入力された検証用画像と類似する画像を抽出する類似画像抽出工程と、
前記類似画像抽出工程により抽出した画像にラベルを付与することで教師データを作成する教師データ作成工程と、
前記教師データ作成工程により作成された教師データを用いて、前記教師あり画像分類器を学習させる学習工程と、
を備えることを特徴とする情報処理方法。
An information processing method in an information processing system for classifying a verification image by a supervised image classifier,
An image input process for inputting a verification image;
A similar image extraction step of extracting an image similar to the verification image input in the image input step;
A teacher data creation step of creating teacher data by applying a label to the image extracted in the similar image extraction step;
A learning step of learning the supervised image classifier using the teacher data generated by the teacher data generation step;
An information processing method comprising:
教師あり画像分類器により検証用画像の分類をする情報処理システムにおいて実行可能なプログラムであって、
前記情報処理システムを、
検証用画像の入力をする画像入力手段と、
前記画像入力手段により入力された検証用画像と類似する画像を抽出する類似画像抽出手段と、
前記類似画像抽出手段により抽出した画像にラベルを付与することで教師データを作成する教師データ作成手段と、
前記教師データ作成手段により作成された教師データを用いて、前記教師あり画像分類器を学習させる学習手段として機能させることを特徴とするプログラム。
A program executable in an information processing system for classifying a verification image by a supervised image classifier,
The information processing system,
Image input means for inputting a verification image;
A similar image extraction unit that extracts an image similar to the verification image input by the image input unit;
Teacher data creation means for creating teacher data by giving a label to the image extracted by the similar image extraction means;
A program characterized in that it functions as a learning means for learning the supervised image classifier using the teacher data created by the teacher data creation means.
JP2019033673A 2019-02-27 2019-02-27 Information processing system, information processing method, program Active JP6761197B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019033673A JP6761197B2 (en) 2019-02-27 2019-02-27 Information processing system, information processing method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019033673A JP6761197B2 (en) 2019-02-27 2019-02-27 Information processing system, information processing method, program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015247373A Division JP6489005B2 (en) 2015-12-18 2015-12-18 Information processing system, information processing method, and program

Publications (3)

Publication Number Publication Date
JP2019109924A true JP2019109924A (en) 2019-07-04
JP2019109924A5 JP2019109924A5 (en) 2020-01-30
JP6761197B2 JP6761197B2 (en) 2020-09-23

Family

ID=67180007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019033673A Active JP6761197B2 (en) 2019-02-27 2019-02-27 Information processing system, information processing method, program

Country Status (1)

Country Link
JP (1) JP6761197B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021019278A (en) * 2019-07-19 2021-02-15 セイコーエプソン株式会社 Information processing apparatus, color conversion profile creation method, color conversion profile creation program, and learning device
JP2021019279A (en) * 2019-07-19 2021-02-15 セイコーエプソン株式会社 Information processing apparatus, color conversion profile creation method, color conversion profile creation program, and learning device
JP7357551B2 (en) 2020-01-17 2023-10-06 株式会社日立ソリューションズ・クリエイト Image judgment system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293528A (en) * 2005-04-07 2006-10-26 Sharp Corp Method and apparatus for selecting learning image, and method, apparatus, program and recording medium for creating image processing algorithm
JP2008276775A (en) * 2007-04-25 2008-11-13 Fujitsu Ltd Image retrieval device
JP2011145791A (en) * 2010-01-13 2011-07-28 Hitachi Ltd Classifier learning image production program, method and system
JP2011150541A (en) * 2010-01-21 2011-08-04 Sony Corp Learning apparatus, learning method and program
JP2013125322A (en) * 2011-12-13 2013-06-24 Olympus Corp Learning device, program and learning method
JP2014022837A (en) * 2012-07-13 2014-02-03 Nippon Hoso Kyokai <Nhk> Learning device and program
JP2014197412A (en) * 2014-06-12 2014-10-16 トムソン ライセンシングThomson Licensing System and method for similarity search of images
JP2015185149A (en) * 2014-03-26 2015-10-22 日本電気株式会社 Mechanical learning device, mechanical learning method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293528A (en) * 2005-04-07 2006-10-26 Sharp Corp Method and apparatus for selecting learning image, and method, apparatus, program and recording medium for creating image processing algorithm
JP2008276775A (en) * 2007-04-25 2008-11-13 Fujitsu Ltd Image retrieval device
JP2011145791A (en) * 2010-01-13 2011-07-28 Hitachi Ltd Classifier learning image production program, method and system
JP2011150541A (en) * 2010-01-21 2011-08-04 Sony Corp Learning apparatus, learning method and program
JP2013125322A (en) * 2011-12-13 2013-06-24 Olympus Corp Learning device, program and learning method
JP2014022837A (en) * 2012-07-13 2014-02-03 Nippon Hoso Kyokai <Nhk> Learning device and program
JP2015185149A (en) * 2014-03-26 2015-10-22 日本電気株式会社 Mechanical learning device, mechanical learning method, and program
JP2014197412A (en) * 2014-06-12 2014-10-16 トムソン ライセンシングThomson Licensing System and method for similarity search of images

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021019278A (en) * 2019-07-19 2021-02-15 セイコーエプソン株式会社 Information processing apparatus, color conversion profile creation method, color conversion profile creation program, and learning device
JP2021019279A (en) * 2019-07-19 2021-02-15 セイコーエプソン株式会社 Information processing apparatus, color conversion profile creation method, color conversion profile creation program, and learning device
JP6996532B2 (en) 2019-07-19 2022-01-17 セイコーエプソン株式会社 Information processing device, color conversion profile creation method, color conversion profile creation program and learning device
JP7357551B2 (en) 2020-01-17 2023-10-06 株式会社日立ソリューションズ・クリエイト Image judgment system

Also Published As

Publication number Publication date
JP6761197B2 (en) 2020-09-23

Similar Documents

Publication Publication Date Title
JP6489005B2 (en) Information processing system, information processing method, and program
US20200401831A1 (en) Content-aware selection
US20190251471A1 (en) Machine learning device
US7831929B2 (en) Method, system, and program product for controlling a display on a data editing screen
US10649647B2 (en) Device and method of providing handwritten content in the same
US20130305191A1 (en) Image selection device and control method thereof
US20140019905A1 (en) Method and apparatus for controlling application by handwriting image recognition
US20150339348A1 (en) Search method and device
US11461409B2 (en) Digitization of technical documentation driven by machine learning
WO2019102533A1 (en) Document classification device
CN107273457A (en) A kind of searching method and device, computer installation and computer-readable recording medium
JP2019109924A (en) Information processing system, information processing method, and program
JP2020149686A (en) Image processing method, device, server, and storage medium
CN101828183A (en) Method and apparatus for updating prototypes
JP7364709B2 (en) Extract and review vaccination data using machine learning and natural language processing
CN110705226A (en) Spreadsheet creating method and device and computer equipment
US20180151178A1 (en) Interactive question-answering apparatus and method thereof
CN112489676A (en) Model training method, device, equipment and storage medium
CN111507400A (en) Application classification method and device, electronic equipment and storage medium
EP2947584A1 (en) Multimodal search method and device
JP2015076064A (en) Information processing device, information processing method, program, and storage medium
US20240143163A1 (en) Digital ink processing system, method, and program
CN112433650B (en) Project management method, device, equipment and storage medium
JPWO2010064317A1 (en) Operation management support program, recording medium recording the program, operation management support device, and operation management support method
CN112732379A (en) Operation method of application program on intelligent terminal, terminal and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200817

R151 Written notification of patent or utility model registration

Ref document number: 6761197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250