JP7357551B2 - Image judgment system - Google Patents

Image judgment system Download PDF

Info

Publication number
JP7357551B2
JP7357551B2 JP2020006190A JP2020006190A JP7357551B2 JP 7357551 B2 JP7357551 B2 JP 7357551B2 JP 2020006190 A JP2020006190 A JP 2020006190A JP 2020006190 A JP2020006190 A JP 2020006190A JP 7357551 B2 JP7357551 B2 JP 7357551B2
Authority
JP
Japan
Prior art keywords
common
learning model
image
data
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020006190A
Other languages
Japanese (ja)
Other versions
JP2021114097A (en
Inventor
信夫 小辰
政樹 樽角
貴大 千條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Create Ltd
Original Assignee
Hitachi Solutions Create Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Create Ltd filed Critical Hitachi Solutions Create Ltd
Priority to JP2020006190A priority Critical patent/JP7357551B2/en
Publication of JP2021114097A publication Critical patent/JP2021114097A/en
Application granted granted Critical
Publication of JP7357551B2 publication Critical patent/JP7357551B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像判定システムに関する。 The present invention relates to an image determination system.

画像判定システムが正しい判定をしなかった場合、逐次再学習することで学習モデルを自己改善するシステムが、例えば、特許文献1に開示されている。また、ユーザ毎の趣味・嗜好を特徴量化して、機械学習することでユーザに最適なコンテンツを提示するシステムが、例えば、特許文献2に開示されている。 For example, Patent Document 1 discloses a system that self-improves a learning model by sequentially relearning when an image judgment system does not make a correct judgment. Further, a system that presents optimal content to the user by converting each user's hobbies and preferences into feature quantities and performing machine learning is disclosed in, for example, Patent Document 2.

特許文献1の画像判定システムは、画像が表す種別ごとの確からしさを推定する学習モデルを評価し、精度が基準を満たしていない場合、正解ラベルを付与し、学習モデルの再学習を行いより精度の高いモデルに改善していく。 The image judgment system disclosed in Patent Document 1 evaluates a learning model that estimates the probability of each type represented by an image, and if the accuracy does not meet the standard, it assigns a correct label and retrains the learning model to improve accuracy. We will improve the model to a higher one.

また、特許文献2では、ユーザ毎の画像に対する反応、すなわちコメントしたり、「いいね」を表明したり、あるいは無視(スルー)したり、といった行動の結果を特徴量化し、それを線形回帰、ロジスティック回帰、ブースティング・ツリー、または加重決定木などの機械学習方式で予測することで、近しいユーザネットワークグループを形成したり、当該ユーザの趣味・嗜好にあった画像をカスタマイズして提示する。 In addition, in Patent Document 2, the reactions of each user to images, that is, the results of actions such as commenting, saying "like", or ignoring (passing), are converted into features, and the results are calculated using linear regression. By making predictions using machine learning methods such as logistic regression, boosting trees, or weighted decision trees, it is possible to form close user network groups and to customize and present images that match the user's hobbies and tastes.

特開2019-152948号公報JP2019-152948A 特表2016-510441号公報Special table 2016-510441 publication

しかしながら、上述した特許文献1、2に開示された技術では、ユーザ毎に画像判定結果をマスカスタマイズ(以下、MCと省略する)する仕組みや、精度向上のため、画像判定機構を多段階化し、必要に応じてより精度や専門性の高い判定機構にエスカレーションすることで、より正確な判定を行う仕掛けは考慮されていない。また、ユーザへの判定結果の提示方法に、判定機構の学習の成熟度を付加することで、ユーザが総合的に判断できる仕掛けについても考慮されていない。 However, the techniques disclosed in Patent Documents 1 and 2 mentioned above have a mechanism for mass customizing (hereinafter abbreviated as MC) image determination results for each user, and a multi-stage image determination mechanism to improve accuracy. No consideration is given to a mechanism for making more accurate judgments by escalating to a judgment mechanism with higher precision or expertise as needed. Furthermore, no consideration is given to a mechanism that allows the user to make a comprehensive judgment by adding the learning maturity level of the judgment mechanism to the method of presenting the judgment result to the user.

本発明は上記の課題に鑑みてなされたもので、ユーザ毎に最適な画像判定を行うことが可能な画像判定システムを提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image determination system that can perform optimal image determination for each user.

上記課題を解決すべく、本発明の一つの観点に従う画像判定システムは、端末と、この端末と通信可能な共通サーバ及び専門サーバとを有する。
端末は、被写体を撮像して画像を出力する撮像部と、軽量学習モデルが格納された記憶部と、画像に基づいて軽量学習モデルを用いて被写体の分類を判定する画像判定部と、画像と画像判定部により判定された被写体の分類とを提示する表示部と、提示された被写体の分類の修正または追加入力を受け入れる入力部と、画像を共通サーバに送信し、分類の修正または追加入力を収集して記憶部に軽量MC教師データセットとして格納するとともに、分類の修正または追加入力を専門サーバに送信するデータ収集部とを有する。
共通サーバは、共通学習モデル及び共通教師データセットが格納された共通記憶部と、端末から送信された画像を用いて共通教師データセットを生成する共通データ収集部と、共通教師データセットを用いて共通学習モデルを生成し、さらに、共通学習モデルを軽量化して軽量学習モデルを生成し、この軽量学習モデルを端末に送信する共通学習モデル生成部とを有する。
専門サーバは、専門学習モデル及び専門教師データセットが格納された専門記憶部と、端末から送信された分類の修正または追加入力を用いて専門教師データセットを生成する専門データ収集部と、専門教師データセットを用いて専門学習モデルを生成する専門学習モデル生成部と、画像判定部による判定が困難な場合、画像に基づいて専門学習モデルを用いて被写体を判定する専門画像判定部とを有する。
In order to solve the above problems, an image determination system according to one aspect of the present invention includes a terminal, and a common server and a specialized server that can communicate with the terminal.
The terminal includes an imaging unit that captures an image of a subject and outputs an image, a storage unit that stores a lightweight learning model, an image judgment unit that uses the lightweight learning model to determine the classification of the subject based on the image, and an image processing unit that outputs an image. a display unit that presents the classification of the subject determined by the image determination unit; an input unit that accepts corrections or additional input to the presented classification of the subject; It has a data collection unit that collects and stores it in a storage unit as a lightweight MC teacher data set, and also sends classification corrections or additional inputs to a specialized server.
The common server includes a common storage unit that stores a common learning model and a common teacher data set, a common data collection unit that generates a common teacher data set using images sent from a terminal, and a common data collection unit that uses the common teacher data set. The common learning model generation unit generates a common learning model, further generates a lightweight learning model by reducing the weight of the common learning model, and transmits this lightweight learning model to a terminal.
The specialized server includes a specialized storage section in which specialized learning models and specialized teacher datasets are stored, a specialized data collection section that generates specialized teacher datasets using classification corrections or additional inputs sent from the terminal, and a specialized teacher dataset. It has a specialized learning model generating section that generates a specialized learning model using a data set, and a specialized image determining section that determines a subject using a specialized learning model based on the image when it is difficult to make a determination by the image determining section.

本発明によれば、ユーザ毎に最適な画像判定を行うことが可能な画像判定システムを実現することができる。 According to the present invention, it is possible to realize an image determination system that can perform optimal image determination for each user.

実施例1に係る画像判定システムの機能構成を示す機能ブロック図である。1 is a functional block diagram showing a functional configuration of an image determination system according to Example 1. FIG. 実施例1に係る画像判定システムの初期学習モデルとモバイル用軽量MC学習モデルの生成処理の一例を示すフローチャートである。2 is a flowchart illustrating an example of a process for generating an initial learning model and a mobile lightweight MC learning model of the image determination system according to the first embodiment. 実施例1に係る画像判定システムのモバイル用軽量MC学習モデルの生成処理の一例を示すフローチャートである。2 is a flowchart illustrating an example of a mobile lightweight MC learning model generation process of the image determination system according to the first embodiment. 実施例1に係る画像判定システムのモバイル用軽量MC学習モデルの生成処理の他の例を示すフローチャートである。7 is a flowchart illustrating another example of the mobile lightweight MC learning model generation process of the image determination system according to the first embodiment. 実施例1に係る画像判定システムの逐次学習プロセス処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of sequential learning process processing of the image determination system according to the first embodiment. 実施例1に係る画像判定システムの逐次学習プロセス処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of sequential learning process processing of the image determination system according to the first embodiment. 実施例1に係る画像判定システムの各学習モデルの関連と参照する辞書のイメージを説明するための例を示すための図である。FIG. 3 is a diagram illustrating an example for explaining the relationship between learning models of the image determination system according to the first embodiment and an image of a dictionary to be referred to. 実施例1に係る画像判定システムのMC学習モデルの生成処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of MC learning model generation processing of the image determination system according to the first embodiment. 実施例1に係る画像判定システムのMC学習モデルの生成処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of MC learning model generation processing of the image determination system according to the first embodiment. 実施例1に係る画像判定システムのMC学習モデルの生成処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of MC learning model generation processing of the image determination system according to the first embodiment. 実施例2に係る画像判定システムの逐次学習プロセス処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of sequential learning process processing of the image determination system according to the second embodiment. 実施例2に係る画像判定システムの成熟度フィードバックプロセス処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of a maturity level feedback process of the image determination system according to the second embodiment. 実施例2に係る画像判定システムの成熟度フィードバックプロセス処理の他の例を示すフローチャートである。7 is a flowchart illustrating another example of the maturity level feedback process of the image determination system according to the second embodiment. 実施例2に係る画像判定システムにおけるモバイル端末に表示される画面の一例を示す図である。7 is a diagram illustrating an example of a screen displayed on a mobile terminal in the image determination system according to Example 2. FIG. 実施例2に係る画像判定システムにおけるモバイル端末に表示される画面の他の例を示す図である。7 is a diagram showing another example of a screen displayed on a mobile terminal in the image determination system according to the second embodiment. FIG. 実施例2に係る画像判定システムにおけるモバイル端末に表示される画面の他の例を示す図である。7 is a diagram showing another example of a screen displayed on a mobile terminal in the image determination system according to the second embodiment. FIG. 実施例3に係る画像判定システムの利用形態の一例を示す図である。FIG. 7 is a diagram illustrating an example of a usage form of an image determination system according to a third embodiment. 実施例4に係る画像判定システムのサンプリング回答補正方式処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of sampling response correction method processing of the image determination system according to the fourth embodiment. 実施例4に係る画像判定システムのMC学習モデル補正方式処理の一例を示すフローチャートである。13 is a flowchart illustrating an example of MC learning model correction method processing of the image determination system according to the fourth embodiment. 実施例5に係る画像判定システムの学習モデル更新/再学習/保守プロセス処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of a learning model update/relearning/maintenance process processing of the image determination system according to the fifth embodiment. 実施例5に係る画像判定システムのデータ比率逓減再学習方式処理の例を示すフローチャートである。13 is a flowchart illustrating an example of data ratio decreasing relearning method processing of the image determination system according to the fifth embodiment. 実施例5に係る画像判定システムのデータ上限固定再学習方式処理の例を示すフローチャートである。12 is a flowchart illustrating an example of data upper limit fixed relearning method processing of the image determination system according to the fifth embodiment.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 Embodiments of the present invention will be described below with reference to the drawings. The embodiments described below do not limit the claimed invention, and all of the elements and combinations thereof described in the embodiments are not necessarily essential to the solution of the invention. Not exclusively.

なお、実施例を説明する図において、同一の機能を有する箇所には同一の符号を付し、その繰り返しの説明は省略する。 In the drawings explaining the embodiments, parts having the same functions are denoted by the same reference numerals, and repeated explanations thereof will be omitted.

また、以下の説明では、情報の一例として「xxxデータ」といった表現を用いる場合があるが、情報のデータ構造はどのようなものでもよい。すなわち、情報がデータ構造に依存しないことを示すために、「xxxデータ」を「xxxテーブル」と言うことができる。さらに、「xxxデータ」を単に「xxx」と言うこともある。そして、以下の説明において、各情報の構成は一例であり、情報を分割して保持したり、結合して保持したりしても良い。 Further, in the following description, an expression such as "xxx data" may be used as an example of information, but the information may have any data structure. That is, "xxx data" can be referred to as "xxx table" to indicate that the information is independent of data structure. Furthermore, "xxx data" is sometimes simply referred to as "xxx". In the following description, the configuration of each piece of information is merely an example, and the information may be held separately or may be combined and held.

図1は、実施例1に係る画像判定システムの機能構成を示す機能ブロック図である。 FIG. 1 is a functional block diagram showing the functional configuration of an image determination system according to a first embodiment.

本実施例の画像判定システムSは、複数のモバイル端末100、共通サーバ200及び単一のまたは複数の専門サーバ300を有する。モバイル端末100は本実施例の画像判定システムSの複数のユーザ(図示例ではUSER-1~USER-X)により携帯され、使用される。以下の説明では、USER-Xのモバイル端末100について主に説明する。 The image determination system S of this embodiment includes a plurality of mobile terminals 100, a common server 200, and a single or multiple specialized servers 300. The mobile terminal 100 is carried and used by a plurality of users (USER-1 to USER-X in the illustrated example) of the image determination system S of this embodiment. In the following explanation, the mobile terminal 100 of USER-X will be mainly explained.

モバイル端末100と共通サーバ200とは、互いの通信部160、230により相互に情報の送受信が可能になっている。同様に、共通サーバ200と専門サーバ300とは、互いの通信部230、330により相互に情報の送受信が可能になっている。モバイル端末100と共通サーバ200との間の通信手段に特段の限定はないが、好ましくは、一部が無線通信手段により構成される。また、通信手段はいわゆるLAN(Local Area Network)またはインターネットや移動体通信網に代表されるWAN(Wide Area Network)の少なくとも一方または両方でありうる。 The mobile terminal 100 and the common server 200 are capable of mutually transmitting and receiving information through each other's communication units 160 and 230. Similarly, the common server 200 and the specialized server 300 are capable of mutually transmitting and receiving information through their communication units 230 and 330. There is no particular limitation on the means of communication between the mobile terminal 100 and the common server 200, but preferably a portion thereof is configured by wireless communication means. Further, the communication means may be at least one or both of a so-called LAN (Local Area Network) and a WAN (Wide Area Network) typified by the Internet and a mobile communication network.

モバイル端末100、共通サーバ200及び専門サーバ300は、いずれも各種情報処理が可能な装置、一例としてコンピュータ等の情報処理装置である。情報処理装置は、少なくとも演算素子、記憶媒体を有する。特に、モバイル端末100は、ユーザが携帯可能なスマートフォン、タブレット端末等が好ましい。 The mobile terminal 100, the common server 200, and the specialized server 300 are all devices capable of processing various types of information, such as an information processing device such as a computer. The information processing device includes at least an arithmetic element and a storage medium. In particular, the mobile terminal 100 is preferably a smartphone, a tablet terminal, or the like that can be carried by the user.

演算素子は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)等である。記憶媒体は、例えばHDD(Hard Disk Drive)などの磁気記憶媒体、RAM(Random Access Memory)、ROM(Read Only Memory)、SSD(Solid State Drive)などの半導体記憶媒体等を有する。また、DVD(Digital Versatile Disk)等の光ディスク及び光ディスクドライブの組み合わせも記憶媒体として用いられる。その他、磁気テープメディアなどの公知の記憶媒体も記憶媒体として用いられる。 The arithmetic element is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array). The storage medium includes, for example, a magnetic storage medium such as an HDD (Hard Disk Drive), a semiconductor storage medium such as a RAM (Random Access Memory), a ROM (Read Only Memory), or an SSD (Solid State Drive). Furthermore, a combination of an optical disk such as a DVD (Digital Versatile Disk) and an optical disk drive is also used as a storage medium. In addition, known storage media such as magnetic tape media can also be used as storage media.

記憶媒体には、ファームウェアなどのプログラムが格納されている。モバイル端末100、共通サーバ200及び専門サーバ300の動作開始時(例えば電源投入時)にファームウェア等のプログラムをこの記憶媒体から読み出して実行し、これらモバイル端末100等の全体制御を行う。また、記憶媒体には、プログラム以外にも、モバイル端末100等の動作に必要なデータ等が格納されている。 Programs such as firmware are stored in the storage medium. When the mobile terminal 100, the common server 200, and the specialized server 300 start operating (for example, when the power is turned on), a program such as firmware is read from this storage medium and executed, thereby controlling the entire mobile terminal 100 and the like. In addition to programs, the storage medium also stores data necessary for the operation of the mobile terminal 100 and the like.

なお、本実施例の共通サーバ200、専門サーバ300は、それぞれ、情報処理装置が通信ネットワークを介して通信可能に構成された、いわゆるクラウドにより構成されてもよい。特に、専門サーバは、自社が用意したサーバに限らず、公開されたネットワークAI(人工知能機能の提供を目的にAPI(アプリケーションプログラムインターフェース)を公開して他者に利活用を許可している)サーバを含む。 Note that the common server 200 and the specialized server 300 of this embodiment may each be configured as a so-called cloud in which information processing apparatuses are configured to be able to communicate via a communication network. In particular, specialized servers are not limited to servers prepared by the company, but also public network AI (APIs (application program interfaces) are released for the purpose of providing artificial intelligence functions and are allowed to be used by others). Including servers.

モバイル端末100は、制御部110、記憶部120、撮像部130、入力部140、表示部150及び通信部160を有する。 Mobile terminal 100 includes a control section 110, a storage section 120, an imaging section 130, an input section 140, a display section 150, and a communication section 160.

制御部110は主に演算素子から構成され、モバイル端末100全体の制御を行う。また、記憶部120に格納された図略のファームウェアがモバイル端末100の起動時に実行されることで、各種機能部としての機能を実行する。このような機能部として、本実施例の制御部110は、モバイル用画像判定部111、撮像制御部112、データ送受信部113及びデータ収集部114を有する。 The control unit 110 is mainly composed of arithmetic elements and controls the entire mobile terminal 100. In addition, firmware (not shown) stored in the storage unit 120 is executed when the mobile terminal 100 is started, thereby performing functions as various functional units. As such functional units, the control unit 110 of this embodiment includes a mobile image determination unit 111, an imaging control unit 112, a data transmission/reception unit 113, and a data collection unit 114.

モバイル用画像判定部111は、後述する記憶部120に格納されたモバイル用軽量学習モデル121及びモバイル用軽量MC学習モデル122に基づいて、人工知能(含む機械学習、深層学習)手法に基づいて、撮像部130により撮像された被写体の判定を行う。モバイル用画像判定部111により行われる被写体判定手法については周知のものであるので、ここでの詳細な説明は省略する。 Based on the mobile lightweight learning model 121 and the mobile lightweight MC learning model 122 stored in the storage unit 120, which will be described later, the mobile image determination unit 111 uses artificial intelligence (including machine learning and deep learning) techniques to The subject imaged by the imaging unit 130 is determined. Since the subject determination method performed by the mobile image determination unit 111 is well known, detailed explanation thereof will be omitted here.

撮像制御部112は、撮像部130の制御を行う。データ送受信部113は、通信部160を介したデータの送受信を制御する。 The imaging control section 112 controls the imaging section 130. The data transmission/reception unit 113 controls transmission and reception of data via the communication unit 160.

データ収集部114は、撮像部130が出力する画像を共通サーバ200に送信する。また、データ収集部114は、入力部140が受け入れた被写体の分類候補または、その修正あるいは追加入力情報を画像情報にラベルとして付加し、記憶部120にモバイル用MC教師データセット123として格納・蓄積する。 The data collection unit 114 transmits the image output by the imaging unit 130 to the common server 200. Furthermore, the data collection unit 114 adds the subject classification candidate accepted by the input unit 140 or its correction or additional input information as a label to the image information, and stores and accumulates it in the storage unit 120 as a mobile MC teacher data set 123. do.

記憶部120は主に記憶媒体から構成され、上述したファームウェア等のプログラム以外に、モバイル端末100の動作に必要なデータ等が一時的または定常的に格納されている。 The storage unit 120 is mainly composed of a storage medium, and in addition to programs such as the firmware described above, data necessary for the operation of the mobile terminal 100 is temporarily or constantly stored.

記憶部120には、モバイル用軽量学習モデル121、モバイル用軽量MC学習モデル122及びモバイル用MC教師データセット123が格納されている。これらモバイル用軽量学習モデル121等は、人工知能手法による被写体の判定に用いられて好適なデータ構造を有する。データ構造は周知のものであるので、ここでの説明は省略する。 The storage unit 120 stores a mobile lightweight learning model 121, a mobile lightweight MC learning model 122, and a mobile MC teacher data set 123. These mobile lightweight learning models 121 and the like have data structures suitable for use in determining subjects using artificial intelligence techniques. Since the data structure is well known, a description thereof will be omitted here.

撮像部130は、CMOS等の撮像素子によりモバイル端末100の周囲にある被写体を撮像し、被写体を含む画像として出力する。入力部140はタッチパネル等を有し、ユーザからの各種操作入力を受け入れる。表示部150は液晶ディスプレイ等を有し、制御部110からの指令に基づいて表示面に表示画面を表示する。通信部160は共通サーバ200及び専門サーバ300との間での各種データの送受信を制御する。 The image capturing unit 130 captures an image of a subject around the mobile terminal 100 using an image capturing element such as a CMOS, and outputs the image as an image including the subject. The input unit 140 has a touch panel or the like, and accepts various operation inputs from the user. The display unit 150 has a liquid crystal display or the like, and displays a display screen on the display surface based on commands from the control unit 110. The communication unit 160 controls transmission and reception of various data between the common server 200 and the specialized server 300.

次に、共通サーバ200は、共通制御部210、共通記憶部220及び通信部230を有する。 Next, the common server 200 includes a common control section 210, a common storage section 220, and a communication section 230.

共通制御部210は主に演算素子から構成され、共通サーバ200全体の制御を行う。また、共通記憶部220に格納された図略のファームウェアが共通サーバ200の起動時に実行されることで、各種機能部としての機能を実行する。このような機能部として、本実施例の共通制御部210は、共通画像判定部211、共通学習モデル生成部212、共通データ送受信部213及び共通データ収集部214を有する。 The common control unit 210 is mainly composed of arithmetic elements, and controls the entire common server 200. In addition, unillustrated firmware stored in the common storage unit 220 is executed when the common server 200 is started, thereby performing functions as various functional units. As such functional units, the common control unit 210 of this embodiment includes a common image determination unit 211, a common learning model generation unit 212, a common data transmission/reception unit 213, and a common data collection unit 214.

共通画像判定部211は、モバイル端末100から送信された画像に基づいて被写体の分類を判定する。共通学習モデル生成部212は、共通記憶部220に格納されている共通教師データセット222を用いて共通学習モデル221を生成し、さらに、共通学習モデル221を軽量化してモバイル用軽量学習モデル121を生成し、このモバイル用軽量学習モデル121をモバイル端末100に送信する。 The common image determination unit 211 determines the classification of the subject based on the image transmitted from the mobile terminal 100. The common learning model generation unit 212 generates a common learning model 221 using the common teacher data set 222 stored in the common storage unit 220, and further reduces the weight of the common learning model 221 to create a mobile lightweight learning model 121. This mobile lightweight learning model 121 is transmitted to the mobile terminal 100.

また、共通学習モデル生成部212は、共通記憶部220に格納されたUSER-X用のMC教師データセット224(X)単独または、共通教師データセット222と合体したデータセットを用いてMC学習モデル223(X)を生成し、さらに、MC学習モデル223(X)を軽量化してモバイル用軽量MC学習モデル122(X)を生成し、このモバイル用軽量MC学習モデル122(X)をモバイル端末100に送信する。 Further, the common learning model generation unit 212 generates an MC learning model using the MC teacher data set 224 (X) for USER-X stored in the common storage unit 220 alone or the data set combined with the common teacher data set 222. 223(X), further reduces the weight of the MC learning model 223(X) to generate a lightweight mobile MC learning model 122(X), and transmits this lightweight mobile MC learning model 122(X) to the mobile terminal 100. Send to.

これら共通学習モデル221等の生成手法については周知のものであるので、共通学習モデル221を軽量化してモバイル用軽量学習モデル121を生成する手法(詳細は後述)以外の説明は省略する。 Since the methods of generating the common learning model 221 and the like are well known, explanations other than the method of reducing the weight of the common learning model 221 to generate the mobile lightweight learning model 121 (details will be described later) will be omitted.

共通データ送受信部213は、通信部230を介したデータの送受信を制御する。 The common data transmission/reception unit 213 controls transmission and reception of data via the communication unit 230.

共通データ収集部214は、モバイル端末100から送信された画像と、入力部140が受け入れた被写体の分類候補を画像情報にラベルとして付加し、共通教師データセット222に追加・蓄積する。また、共通データ収集部214は、USER-Xが表示部150に表示された被写体の分類候補を受け入れなかった場合は、USER-Xの修正あるいは追加入力情報を画像情報にラベルとして付加し、モバイル端末100の記憶部120にモバイル用MC教師データセット123に追加・蓄積する。その際、蓄積されたデータ件数が、N件を超えた場合、モバイル端末100は、共通サーバ200にモバイル用MC教師データセット123をまとめて送信し、MC教師データセット224(X)として追加・蓄積する。 The common data collection unit 214 adds the image transmitted from the mobile terminal 100 and the subject classification candidate accepted by the input unit 140 as a label to the image information, and adds and stores it in the common teacher data set 222. Furthermore, if USER-X does not accept the subject classification candidate displayed on the display unit 150, the common data collection unit 214 adds USER-X's correction or additional input information to the image information as a label, and It is added to and stored in the mobile MC teacher data set 123 in the storage unit 120 of the terminal 100. At this time, if the number of accumulated data exceeds N, the mobile terminal 100 collectively transmits the mobile MC teacher data set 123 to the common server 200 and adds it as an MC teacher data set 224 (X). accumulate.

共通記憶部220は主に記憶媒体から構成され、上述したファームウェア等のプログラム以外に、共通サーバ200の動作に必要なデータ等が一時的または定常的に格納されている。 The common storage unit 220 is mainly composed of a storage medium, and in addition to programs such as the firmware described above, data necessary for the operation of the common server 200 is temporarily or regularly stored.

共通記憶部220には、共通学習モデル221、共通教師データセット222、MC学習モデル223及びMC教師データセット224が格納されている。これら共通学習モデル221等は、人工知能手法による被写体の判定に用いられて好適なデータ構造を有する。データ構造は周知のものであるので、ここでの説明は省略する。 The common storage unit 220 stores a common learning model 221, a common teacher data set 222, an MC learning model 223, and an MC teacher data set 224. These common learning models 221 and the like have data structures suitable for use in determining subjects using artificial intelligence techniques. Since the data structure is well known, a description thereof will be omitted here.

通信部230はモバイル端末100及び専門サーバ300との間での各種データの送受信を制御する。 The communication unit 230 controls transmission and reception of various data between the mobile terminal 100 and the specialized server 300.

次に、専門サーバ300は、専門制御部310、専門記憶部320及び通信部330を有する。 Next, the specialized server 300 includes a specialized control section 310, a specialized storage section 320, and a communication section 330.

専門制御部310は主に演算素子から構成され、専門サーバ300全体の制御を行う。また、専門記憶部320に格納された図略のファームウェアが専門サーバ300の起動時に実行されることで、各種機能部としての機能を実行する。このような機能部として、本実施例の専門制御部310は、専門画像判定部311、専門学習モデル生成部312、専門データ送受信部313及び専門データ収集部314を有する。 The specialized control unit 310 is mainly composed of arithmetic elements, and controls the entire specialized server 300. Furthermore, unillustrated firmware stored in the specialized storage section 320 is executed when the specialized server 300 is started up, thereby performing functions as various functional sections. As such functional units, the specialized control unit 310 of this embodiment includes a specialized image determination unit 311, a specialized learning model generation unit 312, a specialized data transmission/reception unit 313, and a specialized data collection unit 314.

専門画像判定部311は、モバイル端末100のモバイル用画像判定部111による判定や、共通サーバ200の共通画像判定部211による判定より、詳細な専門的判定が求められた場合、モバイル端末100から送信された画像に基づいて専門記憶部320に格納された専門学習モデル321を用いて被写体を判定する。 The specialized image determination unit 311 transmits information from the mobile terminal 100 when a more detailed specialized determination is required than the determination by the mobile image determination unit 111 of the mobile terminal 100 or the common image determination unit 211 of the common server 200. Based on the image, the subject is determined using the specialized learning model 321 stored in the specialized storage section 320.

専門学習モデル生成部312は、専門記憶部320に格納された専門教師データセット322を用いて専門学習モデル321を生成する。専門学習モデル321等の生成手法については周知のものであるので、ここでの説明は省略する。 The specialized learning model generation unit 312 generates a specialized learning model 321 using the specialized teacher data set 322 stored in the specialized storage unit 320. Since the method of generating the specialized learning model 321 and the like is well known, a description thereof will be omitted here.

専門データ送受信部313は、通信部330を介したデータの送受信を制御する。 The specialized data transmission/reception section 313 controls transmission and reception of data via the communication section 330.

専門データ収集部314は、モバイル端末100から送信された被写体の分類の修正または追加入力を用いて専門教師データセット322に追加・蓄積する。 The specialized data collection unit 314 uses the correction or additional input of the subject classification transmitted from the mobile terminal 100 to add to and accumulate in the specialized teacher data set 322.

通信部330はモバイル端末100及び共通サーバ200との間での各種データの送受信を制御する。 The communication unit 330 controls transmission and reception of various data between the mobile terminal 100 and the common server 200.

なお、図1に示す各機能実行部及びデータの詳細については後述する。 Note that details of each function execution unit and data shown in FIG. 1 will be described later.

次に、図2~図7Dを参照して、本実施例の画像判定システムSによる画像判定動作について説明する。まず、図2は、実施例1に係る画像判定システムSの初期学習モデルとモバイル用軽量MC学習モデルの生成処理の一例を示すフローチャートである。 Next, the image determination operation by the image determination system S of this embodiment will be described with reference to FIGS. 2 to 7D. First, FIG. 2 is a flowchart illustrating an example of a process for generating an initial learning model and a mobile lightweight MC learning model of the image determination system S according to the first embodiment.

複数のユーザが、初期学習のためにモバイル端末100の撮像部130を用いて学習モデル構築用の被写体を撮像して画像を出力し、各ユーザに分類カテゴリ情報を入力させてラベルとし、モバイル端末100のデータ送受信部113は、撮像部130から出力された画像に当該ラベルを付加して共通サーバ200に送信する。共通サーバ200の共通データ収集部214は、モバイル端末100から送信された画像とラベルのセットを収集し、共通教師データセット222として追加、蓄積する(ステップS200)。生成された共通教師データセット222は共通記憶部220に格納される。 For initial learning, a plurality of users use the imaging unit 130 of the mobile terminal 100 to image a subject for building a learning model, output the image, have each user input classification category information as a label, and output the image to the mobile terminal 100. The data transmitting/receiving unit 113 of 100 adds the label to the image output from the imaging unit 130 and transmits the image to the common server 200 . The common data collection unit 214 of the common server 200 collects the set of images and labels transmitted from the mobile terminal 100, and adds and stores them as the common teacher data set 222 (step S200). The generated common teacher data set 222 is stored in the common storage unit 220.

モバイル端末によるデータ収集で十分なデータが集まらない場合または、全くデータの収集ができない場合は、別の手段でデータを収集する。例えば、システム開発者が独自に人海戦術で学習用データを撮影して集めたり、動画像から切り出したり、インターネット上に複数存在している画像コンテンツをボットなどの手段で機械的に収集し、アノテーションツール等を駆使して教師用の画像の切り出しやラベルづけを行い、共通教師データセット222として追加、蓄積する(ステップS200)。 If sufficient data cannot be collected by collecting data using a mobile terminal, or if no data can be collected at all, collect data by other means. For example, a system developer may independently photograph and collect learning data using human tactics, cut out video images, or mechanically collect multiple image contents on the Internet using bots or other means. Using an annotation tool or the like, images for teachers are cut out and labeled, and added and stored as a common teacher data set 222 (step S200).

共通サーバ200の共通学習モデル生成部212は、共通教師データセット222を用いて共通学習モデル221を生成する(ステップS201)。生成された共通学習モデル221も共通記憶部220に格納される。 The common learning model generation unit 212 of the common server 200 generates the common learning model 221 using the common teacher data set 222 (step S201). The generated common learning model 221 is also stored in the common storage unit 220.

次いで、共通学習モデル生成部212は、生成した共通学習モデル221を軽量化してモバイル用軽量学習モデル121を生成する(ステップS202)。生成したモバイル用軽量学習モデル121は共通データ送受信部213によりモバイル端末100に送信され、モバイル端末100のデータ送受信部113はモバイル用軽量学習モデル121を記憶部120に格納する。 Next, the common learning model generation unit 212 reduces the weight of the generated common learning model 221 to generate a mobile lightweight learning model 121 (step S202). The generated mobile lightweight learning model 121 is transmitted to the mobile terminal 100 by the common data transmitting/receiving unit 213, and the data transmitting/receiving unit 113 of the mobile terminal 100 stores the mobile lightweight learning model 121 in the storage unit 120.

学習モデルの軽量化の手法としては、蒸留(Distillation)、枝刈り(Pruning)、量子化(Quantize)などが知られている。蒸留とは、深く、何層にも広がったニューラルネットワークで十分なデータを使って学習したモデルを教師モデルとして、その出力(最終/中間)結果を正解データとして生徒モデルを学習させてより浅いノード数の少ない計量モデルでも高い精度が得られるようにしたものである。また、枝刈りとは、ニューラルネットの関係の薄い部分を0にしてネットを断ち切ることで階層を浅く/希釈することで、必要な計算量、メモリ量の節約をするものである。量子化とは、学習済みネットワークの浮動小数型の重みを、±1のどちらかに寄せて計算が簡単にできるようにしたものである。 Distillation, pruning, quantization, etc. are known methods for reducing the weight of learning models. Distillation is a deep, multi-layered neural network that uses a model trained using sufficient data as a teacher model, and its output (final/intermediate) results as ground truth data to train a student model and create shallower nodes. This allows high accuracy to be obtained even with a small number of metrological models. Furthermore, pruning is a method of cutting off the network by setting weakly related parts of the neural network to 0, thereby making the hierarchy shallower/diluting, thereby saving the required calculation amount and memory amount. Quantization is the process of shifting the floating point weights of a trained network to either ±1 to make calculations easier.

このような既知の軽量化手法により共通学習モデル221を軽量化してモバイル用軽量学習モデル121を生成し、このモバイル用軽量学習モデル121を用いてモバイル端末100において被写体の判定を行うことで、処理能力やメモリに制限のあるモバイル端末100によっても被写体の判定処理を行うことができる。 By reducing the weight of the common learning model 221 using such a known weight reduction method to generate the mobile lightweight learning model 121, and determining the subject on the mobile terminal 100 using this mobile lightweight learning model 121, processing is performed. The subject determination process can be performed even by the mobile terminal 100 with limited capabilities and memory.

次に、ステップS200で収集した教師データセットのラベルを分類カテゴリ別に整理し、カテゴリに階層構造を見いだせる場合であって、標準的な共通カテゴリより詳細なサブカテゴリに分類されるような教師データセットの場合は、共通教師データセットから削除し、専門サーバ300の専門データ収集部314に送って、専門教師データセット322に追加・蓄積する(ステップS203)。生成した専門教師データセット322は専門記憶部320に格納される。 Next, the labels of the teacher data set collected in step S200 are organized by classification category, and if a hierarchical structure can be found in the categories, the teacher data set is classified into more detailed subcategories than standard common categories. If so, it is deleted from the common teacher data set, sent to the specialized data collection unit 314 of the specialized server 300, and added and stored in the specialized teacher data set 322 (step S203). The generated specialized teacher data set 322 is stored in the specialized storage section 320.

専門サーバ300の専門学習モデル生成部312は、専門教師データセット322に基づいて専門学習モデル321を生成する(ステップS204)。生成した専門学習モデル321も専門記憶部320に格納される。 The specialized learning model generation unit 312 of the specialized server 300 generates the specialized learning model 321 based on the specialized teacher data set 322 (step S204). The generated specialized learning model 321 is also stored in the specialized storage section 320.

一方、USER-Xが、表示部150に表示された被写体の分類候補を受け入れなかった場合は、USER-Xの修正あるいは追加入力情報を画像情報にラベルとして付加し、モバイル端末100の記憶部120のモバイル用MC教師データセット123に追加・蓄積する(ステップS205)。その際、蓄積されたデータ件数が、N(Nは自然数)件を超えた場合(ステップS206においてYES)、モバイル端末100は、共通サーバ200にモバイル用MC教師データセット123をまとめて送信し、MC教師データセット
224(X)として追加・蓄積する(ステップS207)。生成したMC教師データセット224は共通記憶部220に格納される。
On the other hand, if USER-X does not accept the subject classification candidate displayed on the display unit 150, USER-X's correction or additional input information is added to the image information as a label, and the image information is stored in the storage unit 120 of the mobile terminal 100. is added to and stored in the mobile MC teacher data set 123 (step S205). At this time, if the number of accumulated data exceeds N (N is a natural number) (YES in step S206), the mobile terminal 100 collectively transmits the mobile MC teacher data set 123 to the common server 200, It is added and stored as the MC teacher data set 224(X) (step S207). The generated MC teacher data set 224 is stored in the common storage unit 220.

共通サーバ200の共通学習モデル生成部212は、USER-X用のMC教師データセット224(X)単独または、共通教師データセット222と合体したデータセットを用いてMC学習モデル223(X)を生成するとともに、このMC学習モデル223(X)を軽量化してモバイル用軽量MC学習モデル122を生成し、このモバイル用軽量MC学習モデル122をUSER-Xのモバイル端末100に送信する(ステップS208)。ステップS108の詳細については図3及び図4を参照して後に詳述する。 The common learning model generation unit 212 of the common server 200 generates the MC learning model 223 (X) using the MC teacher data set 224 (X) for USER-X alone or the data set combined with the common teacher data set 222. At the same time, this MC learning model 223(X) is reduced in weight to generate a mobile lightweight MC learning model 122, and this mobile lightweight MC learning model 122 is transmitted to the mobile terminal 100 of USER-X (step S208). Details of step S108 will be described later with reference to FIGS. 3 and 4.

以降、モバイル端末100のモバイル用画像判定部111は、モバイル用軽量学習モデル121とモバイル用軽量MC学習モデル122とを用いて被写体の判定を行う(ステップS209)。 Thereafter, the mobile image determination unit 111 of the mobile terminal 100 determines the subject using the mobile lightweight learning model 121 and the mobile lightweight MC learning model 122 (step S209).

従って、被写体の詳細な分類の判定を必要とするユーザについては、MCをしたモバイル用軽量MC学習モデル122も用いて被写体の判定を行うことにより、ユーザ毎にカスタマイズした判定処理を行うことができる。 Therefore, for users who require a detailed classification judgment of a subject, by also using the mobile lightweight MC learning model 122 that performs MC to judge the subject, it is possible to perform a judgment process customized for each user. .

図3は、実施例1に係る画像判定システムSの軽量MC学習モデルの生成処理の一例を示すフローチャートである。図3に示すフローチャートは、図2に示すフローチャートのステップS208の詳細を示すものである。 FIG. 3 is a flowchart illustrating an example of the lightweight MC learning model generation process of the image determination system S according to the first embodiment. The flowchart shown in FIG. 3 shows details of step S208 in the flowchart shown in FIG.

まず、共通学習モデル生成部212は、MC教師データセット224を訓練データに用いてMC学習モデル223を生成する(ステップS300)。 First, the common learning model generation unit 212 generates the MC learning model 223 using the MC teacher data set 224 as training data (step S300).

次に、共通学習モデル生成部212は、MC学習モデル223と共通学習モデル221とのアンサンブル学習を行う(ステップS301)。ここで、アンサンブル学習とは、複数の学習モデルを組み合わせて(多数決などの方法により)最終的な答えを導く方法である。 Next, the common learning model generation unit 212 performs ensemble learning of the MC learning model 223 and the common learning model 221 (step S301). Here, ensemble learning is a method of deriving a final answer by combining multiple learning models (using a method such as majority voting).

そして、共通学習モデル生成部212は、アンサンブル学習により得られた学習モデルを元に、学習モデルの軽量化手法によりモバイル用軽量MC学習モデル122を生成する(ステップS302)。 Then, the common learning model generation unit 212 generates the mobile lightweight MC learning model 122 using a learning model lightweighting method based on the learning model obtained by ensemble learning (step S302).

なお、図3に示すフローチャートにおいて、学習モデルの軽量化手法によりモバイル用軽量MC学習モデル122を生成した後、モバイル端末100においてモバイル用軽量学習モデル121とアンサンブル学習を行うことで最終的にモバイル用軽量MC学習モデル122を生成することも可能である。 In the flowchart shown in FIG. 3, after the mobile lightweight MC learning model 122 is generated by the learning model lightweighting method, ensemble learning is performed with the mobile lightweight learning model 121 on the mobile terminal 100, thereby finally creating the mobile lightweight MC learning model 122. It is also possible to generate a lightweight MC learning model 122.

図4は、実施例1に係る画像判定システムSの軽量MC学習モデルの生成処理の他の例を示すフローチャートである。図4に示すフローチャートも、図2に示すフローチャートのステップS208の詳細を示すものである。 FIG. 4 is a flowchart illustrating another example of the lightweight MC learning model generation process of the image determination system S according to the first embodiment. The flowchart shown in FIG. 4 also shows details of step S208 in the flowchart shown in FIG.

まず、共通学習モデル生成部212は、MC教師データセット224と共通教師データセット222とを用いてMC学習モデル223を生成する(ステップS400)。 First, the common learning model generation unit 212 generates the MC learning model 223 using the MC teacher data set 224 and the common teacher data set 222 (step S400).

MC教師データセットが共通教師データセットに比べ極端に少ない(例えば、1/100)場合は、MC教師データセットのデータを水増し(Augmentation)する(ステップS401)。 If the MC teacher data set is extremely smaller than the common teacher data set (for example, 1/100), the data in the MC teacher data set is augmented (step S401).

そして、共通学習モデル生成部212は、MC学習モデル223を元に、学習モデルの軽量化手法によりモバイル用軽量MC学習モデル122を生成する(ステップS402)。 Then, the common learning model generation unit 212 generates the mobile lightweight MC learning model 122 based on the MC learning model 223 using a learning model lightweighting method (step S402).

次に、図5A及び図5Bは、実施例1に係る画像判定システムSの逐次学習プロセス処理の一例を示すフローチャートである。図5A及び図5Bに示すフローチャートは、図2に示す初期学習モデルの生成処理が行われた後に実行される。 Next, FIGS. 5A and 5B are flowcharts illustrating an example of the sequential learning process processing of the image determination system S according to the first embodiment. The flowcharts shown in FIGS. 5A and 5B are executed after the initial learning model generation process shown in FIG. 2 is performed.

まず、モバイル用画像判定部111は、モバイル用軽量学習モデル121を用いて、ユーザが撮像して得られた画像に対して被写体の判定処理を行う(ステップS500)。判定処理結果は、画像に写っている被写体の分類(例えば「犬」「猫」)が、その確からしさ(「確度」)とともに得られる。 First, the mobile image determination unit 111 uses the mobile lightweight learning model 121 to perform subject determination processing on an image captured by the user (step S500). As a result of the determination process, the classification of the subject in the image (for example, "dog" or "cat") is obtained along with its probability ("accuracy").

そして、この確度が上位n位(nは自然数)の判定結果について、それぞれの確度を合計したものがx%(0≦x≦100であり、例えばx=80)以上であるか否かが判定される(ステップS501)。そして、判定が肯定されたらプログラムはステップS402に移行し、モバイル端末100の表示部150に上位n位の候補である被写体の分類を確度とともに表示する。一方、判定が否定されたらプログラムはステップS505に移行する。 Then, it is determined whether or not the sum of the respective accuracies is greater than or equal to x% (0≦x≦100, for example, x=80) for the judgment results with the highest accuracy (n is a natural number). (Step S501). If the determination is affirmative, the program moves to step S402, and displays the classification of the subject that is the top n candidate on the display unit 150 of the mobile terminal 100 together with the accuracy. On the other hand, if the determination is negative, the program moves to step S505.

ステップS502に次いで、モバイル用画像判定部111は、モバイル端末100の表示部150に表示された候補のうち、最も確度が高い=トップカテゴリの分類の確度がz%(0≦z≦100であり、例えばz=50)であって、しかも、この分類をさらに細分化した細分類=サブカテゴリを持つか否かが判定される(ステップS503)。ここに、サブカテゴリ=細分類は、例えば分類が「犬」であれば「柴犬」「チワワ」など、分類「犬」に属する犬種である。そして、判定が肯定されたらプログラムはステップS511に移行し、判定が否定されたらプログラムはステップS504に移行する。 Next to step S502, the mobile image determination unit 111 determines whether the classification accuracy of the top category, which has the highest accuracy, is z% (0≦z≦100) among the candidates displayed on the display unit 150 of the mobile terminal 100. , for example, z=50), and furthermore, it is determined whether there is a subcategory (subcategory) that is further subdivided from this classification (step S503). Here, the subcategory=detailed classification is, for example, if the classification is "dog", it is a dog breed that belongs to the classification "dog", such as "Shiba Inu" or "Chihuahua". Then, if the determination is affirmative, the program moves to step S511, and if the determination is negative, the program moves to step S504.

すなわち、モバイル用画像判定部111は入力部140を介したユーザの分類指定入力を待ち、この分類指定入力がされたら、ユーザの分類指定入力がステップS502で表示された候補の中にあったか否かが判定される(ステップS504)。そして、判定が肯定されたらプログラムはステップS510に移行し、判定が否定されたらプログラムはステップS505に移行する。 That is, the mobile image determination unit 111 waits for the user's classification designation input via the input unit 140, and when the classification designation input is made, it determines whether the user's classification designation input is among the candidates displayed in step S502. is determined (step S504). If the determination is affirmative, the program moves to step S510, and if the determination is negative, the program moves to step S505.

一方、ステップS505では、モバイル端末100のデータ送受信部113が、ユーザが撮像して得られた画像を共通サーバ200に送信する。共通サーバ200の共通制御部210は、共通学習モデル221を用いて画像の判定を行い、その結果をモバイル端末100に送信する(ステップS506)。次いで、モバイル用画像判定部111は、ステップS406における画像判定の結果をもってしても確度が上がらない場合を想定して、ステップS501における判定基準であるxをy(例えば5%)だけ減算する(ステップS507)。 On the other hand, in step S505, the data transmitting/receiving unit 113 of the mobile terminal 100 transmits the image captured by the user to the common server 200. The common control unit 210 of the common server 200 judges the image using the common learning model 221, and transmits the result to the mobile terminal 100 (step S506). Next, the mobile image determination unit 111 subtracts y (for example, 5%) from x, which is the determination criterion in step S501, assuming that the accuracy does not increase even with the result of the image determination in step S406 ( Step S507).

そして、モバイル用画像判定部111は、上位n位以内の判定結果の確度の合計であるxがa%(0≦a≦100であり、例えばa=50)を下回ったか否かが判定される(ステップS508)。そして、判定が肯定されたらプログラムはステップS509に移行し、判定が否定されたらプログラムはステップS501に移行する。 Then, the mobile image determination unit 111 determines whether x, which is the total accuracy of the determination results in the top n ranks, is less than a% (0≦a≦100, for example, a=50). (Step S508). If the determination is affirmative, the program moves to step S509, and if the determination is negative, the program moves to step S501.

ステップS509では、モバイル用画像判定部111が、ユーザに対して画像に対する正解となる分類の入力を促す。そして、ステップS410では、モバイル端末100のデータ収集部114が、ユーザの選択をモバイル用MC教師データセット123に一時的に格納後、一定数蓄積されたら、MC教師データセット224として共通サーバ200に送信する。 In step S509, the mobile image determination unit 111 prompts the user to input a correct classification for the image. Then, in step S410, the data collection unit 114 of the mobile terminal 100 temporarily stores the user's selection in the mobile MC teacher data set 123, and when a certain number of selections have been accumulated, the data collection unit 114 of the mobile terminal 100 stores the user's selection in the common server 200 as the MC teacher data set 224. Send.

図5Bにおいて、専門サーバ300の専門画像判定部311は、専門学習モデル321を用いて画像判定を行い、その結果をモバイル端末100に送信する(ステップS511)。次いで、上位n位の判定結果について、それぞれの確度を合計したものがx%以上であるか否かが判定される(ステップS512)。そして、判定が肯定されたらプログラムはステップS513に移行し、モバイル端末100の表示部150に上位n位の候補である被写体の分類を確度とともに表示する。一方、判定が否定されたらプログラムはステップS515に移行する。 In FIG. 5B, the specialized image determination unit 311 of the specialized server 300 performs image determination using the specialized learning model 321, and transmits the result to the mobile terminal 100 (step S511). Next, it is determined whether or not the sum of the probabilities of the top n determination results is greater than or equal to x% (step S512). If the determination is affirmative, the program moves to step S513, and displays the classification of the subject, which is the top n candidate, along with the accuracy on the display unit 150 of the mobile terminal 100. On the other hand, if the determination is negative, the program moves to step S515.

ステップS513では、モバイル用画像判定部111は入力部140を介したユーザの分類指定入力を待ち、この分類指定入力がされたら、ユーザの分類指定入力がステップS502で表示された候補の中にあったか否かが判定される。そして、判定が肯定されたらプログラムはステップS516に移行し、判定が否定されたらプログラムはステップS515に移行する。ステップS515では、モバイル端末100のモバイル用画像判定部111は、ステップS506で得られた共通サーバ200の画像判定結果を表示する。 In step S513, the mobile image determination unit 111 waits for the user's classification designation input via the input unit 140, and when the classification designation input is made, whether the user's classification designation input is among the candidates displayed in step S502 or not. It is determined whether or not. If the determination is affirmative, the program moves to step S516, and if the determination is negative, the program moves to step S515. In step S515, the mobile image determination unit 111 of the mobile terminal 100 displays the image determination result of the common server 200 obtained in step S506.

そして、ステップS516では、モバイル端末100のデータ収集部114が、ユーザの選択入力をMC教師データセット224として共通サーバ200に送信する。 Then, in step S516, the data collection unit 114 of the mobile terminal 100 transmits the user's selection input to the common server 200 as the MC teacher data set 224.

図6は、実施例1に係る画像判定システムSのMC学習モデルの生成処理を説明するための図、図7A~図7Cは、実施例1に係る画像判定システムSのMC学習モデルの生成処理の一例を示すフローチャートである。 FIG. 6 is a diagram for explaining the MC learning model generation process of the image judgment system S according to the first embodiment, and FIGS. 7A to 7C are the MC learning model generation processes of the image judgment system S according to the first embodiment. It is a flowchart which shows an example.

これら図において、USER-Xは、モバイル端末100の撮像部130で被写体を撮像し、(1)モバイル用軽量学習モデル121(共通)を使って画像判定する(ステップS700)。画像判定による候補は、モバイル端末100の表示部150の画面の大きさに合わせて、上位T位まで表示する。 In these figures, USER-X images a subject with the imaging unit 130 of the mobile terminal 100, and (1) performs image judgment using the mobile lightweight learning model 121 (common) (step S700). The candidates based on the image determination are displayed up to the top T in accordance with the screen size of the display unit 150 of the mobile terminal 100.

次に、データ収集部114は、USER-Xが選択した答えが上位n位以内の候補にあり、かつ確度a%以上かどうかを判定する(ステップS701)。上位n位以内の候補にあり、かつ確度a%以上だった場合は(ステップS701においてYES)、データ収集部114はMCの必要性がないものと判断し、被写体画像データに選択した候補(ラベル)を付加して、共通サーバ200に送信し、共通サーバ200はこのデータを共通教師データセット222に追加・蓄積する(ステップS702)。 Next, the data collection unit 114 determines whether the answer selected by USER-X is among the top n candidates and has a probability of a% or more (step S701). If the candidate is among the top n candidates and the accuracy is a% or more (YES in step S701), the data collection unit 114 determines that there is no need for MC, and uses the selected candidate (label ) and sends it to the common server 200, and the common server 200 adds and stores this data in the common teacher data set 222 (step S702).

一方、ステップS701において判定が否定されたら、データ収集部114は、USER-Xが選択した答えが上位n位以内の候補にあるが、確度a%未満だったか否かを判定する(ステップS703)。そして、判定が肯定されたら(ステップS503でyes)、モバイル用軽量学習モデル121(共通)のお勧めとは違う候補を選択したものと考え、データ収集部114は当該USER-X固有のこと、すなわちMCが必要な判定と判断し、当該被写体画像データに選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS705)。 On the other hand, if the determination in step S701 is negative, the data collection unit 114 determines whether the answer selected by USER-X is among the top n candidates, but the accuracy is less than a% (step S703). . If the determination is affirmative (yes in step S503), it is assumed that a candidate different from the one recommended by the mobile lightweight learning model 121 (common) has been selected, and the data collection unit 114 uses information specific to the USER-X, That is, it is determined that MC is necessary, and the selected candidate (label) is added to the subject image data and added and stored in the mobile MC teacher data set 123 (X) (step S705).

一方、上位n位以内の候補になかったが、候補上位T位以内に表示された候補と一致した場合(ステップS703においてNO)は、データ収集部114は、モバイル用軽量学習モデル121(共通)のお勧めとは違う候補を選択したものと考え、当該USER-X固有のこと、すなわちMCが必要な判定と判断し、当該被写体画像データに選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS504でYES)。 On the other hand, if the candidate is not in the top n candidates but matches a candidate displayed in the top T candidates (NO in step S703), the data collection unit 114 uses the mobile lightweight learning model 121 (common) It is assumed that a candidate different from the one recommended by the USER-X has been selected, and it is determined that MC is necessary, and the selected candidate (label) is added to the subject image data, and the mobile version is It is added to and stored in the MC teacher data set 123(X) (YES in step S504).

さらに、上位T位以内の候補になく、その他を選択した場合(ステップS704においてNO)、USER-Xの(2)モバイル用軽量MC学習モデル122(X)を使って画像判定をやり直す(ステップS706)。画像判定による候補は、モバイル端末100の表示部150の画面の大きさに合わせて、上位T位まで表示する。 Furthermore, if it is not in the top T candidates and you select others (NO in step S704), redo the image judgment using the (2) mobile lightweight MC learning model 122(X) of USER-X (step S706) ). The candidates based on the image determination are displayed up to the top T in accordance with the screen size of the display unit 150 of the mobile terminal 100.

その際、判定結果の中に、ステップS700で判定した、上位T位以内の候補が重複してあった場合は、その候補を排除して、新たに判定されたものだけで、Max上位T位まで、その他のプルダウン候補として再提示する。 At that time, if there are duplicate candidates within the top T rank determined in step S700 in the determination results, those candidates are eliminated and only the newly determined candidates are used to rank up to the Max top T rank. Re-present as other pull-down candidates.

次に、データ収集部114は、USER-Xが選択した答えが上位m位以内の候補にあり、かつ確度b%以上かどうかを判定する(ステップS707)。上位m位以内の候補にあり、かつ確度b%以上だった場合(ステップS707においてYES)は、データ収集部114は(2)モバイル用軽量MC学習モデル122(X)が適した判定を行ったものと判断し、当該被写体の画像に選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS708)。 Next, the data collection unit 114 determines whether the answer selected by USER-X is among the top m candidates and has a probability of b% or more (step S707). If the candidate is among the top m candidates and the accuracy is b% or higher (YES in step S707), the data collection unit 114 has determined that (2) the mobile lightweight MC learning model 122(X) is suitable. The selected candidate (label) is added to the image of the subject and added to and stored in the mobile MC teacher data set 123 (X) (step S708).

一方、ステップS707において判定が否定されたら、データ収集部114は、USER-Xが選択した答えが上位m位以内の候補にあるが、確度b%未満だったか否かを判定する(ステップS709)。そして、判定が肯定されたら(ステップS709でYES)は、データ収集部114は、モバイル用軽量MC学習モデル122(X)のお勧めとは違う候補を選択したものと考えられるが、あくまでも当該USER-X固有のこと、すなわちMCが必要な判定であることには変わりはないものと判断し、当該被写体画像データに選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS711)。 On the other hand, if the determination in step S707 is negative, the data collection unit 114 determines whether or not the answer selected by USER-X is among the top m candidates, but the accuracy is less than b% (step S709). . If the determination is affirmative (YES in step S709), it is considered that the data collection unit 114 has selected a candidate different from the one recommended by the mobile lightweight MC learning model 122(X), but the - It is determined that there is no change in the judgment specific to X, that is, that MC is necessary, and the selected candidate (label) is added to the subject image data, and the mobile MC teacher data set 123 (X ) (step S711).

上位m位以内の候補になかったが、T位以内に表示された候補と一致した場合(ステップS710においてYES)は、モバイル用軽量MC学習モデル122(X)特有であると考え、当該被写体画像データに選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS711)。 If the subject image is not in the top m candidates but matches a candidate displayed in the top T positions (YES in step S710), it is considered that this is unique to the mobile lightweight MC learning model 122(X), and the subject image is The selected candidate (label) is added to the data and added to and stored in the mobile MC teacher data set 123 (X) (step S711).

上位T位以内の候補になく(ステップS710でNO)、その他を選択した場合、データ収集部114は被写体画像を共通サーバ200に送信して、(3)共通学習モデル221を使って画像判定をやり直す(ステップS712)。画像判定による候補は、モバイル端末100の表示部150の画面の大きさに合わせて、上位T位まで表示する。 If the subject image is not in the top T candidates (NO in step S710) and you select Others, the data collection unit 114 sends the subject image to the common server 200, and (3) performs image judgment using the common learning model 221. Try again (step S712). The candidates based on the image determination are displayed up to the top T in accordance with the screen size of the display unit 150 of the mobile terminal 100.

その際、判定結果の中に、ステップS700で判定した、上位T位以内の候補や、ステップS706で判定した上位T位以内の候補が重複してあった場合は、その候補を排除して、新たに判定されたものだけで、Max上位T位まで、その他のプルダウン候補として再提示する。 At this time, if there are duplicate candidates in the top T ranks determined in step S700 or candidates in the top T ranks determined in step S706 in the determination results, those candidates are eliminated. Only the newly determined items are re-presented as other pull-down candidates up to the maximum T rank.

次に、データ収集部114は、USER-Xが選択した答えが、上位?位以内の候補にあった場合、あるいは、確度c%以上かどうかを判定する(ステップS713)。上位L位以内の候補にあり、かつ確度c%以上だった場合(ステップS713においてYES)は、(3)共通学習モデル221が適した判定を行ったものと判断し、データ収集部114は当該被写体の画像に選択した候補(ラベル)を付加して、共通教師データセット222に追加・蓄積する(ステップS714)。 Next, the data collection unit 114 determines whether the answer selected by USER-X is among the top candidates or whether the accuracy is c% or higher (step S713). If the candidate is in the top L and the accuracy is c% or higher (YES in step S713), it is determined that (3) the common learning model 221 has made an appropriate determination, and the data collection unit 114 The selected candidate (label) is added to the image of the subject and added to and stored in the common teacher data set 222 (step S714).

ステップS713の判定が否定され、USER-Xが選択した答えが上位L位以内の候補にあるが、確度c%未満だった場合(ステップS715でYES)は、データ収集部114は、共通学習モデル221のお勧めとは違う候補を選択したものと考え、当該USER-X固有のこと、すなわちMCが必要な判定であると判断し、当該被写体画像データに選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS717)。 If the determination in step S713 is negative and the answer selected by USER-X is among the top L candidates, but the accuracy is less than c% (YES in step S715), the data collection unit 114 uses the common learning model It is assumed that a candidate different from the one recommended by 221 has been selected, and it is determined that this is a determination specific to the USER-X, that is, that MC is necessary, and the selected candidate (label) is added to the subject image data. , is added to and stored in the MC teacher data set 224(X) of USER-X (step S717).

上位L位以内の候補になかったが、T位以内に表示された候補と一致した場合(ステップS716においてYES)は、データ収集部114はUSER-XのMC学習モデル223(X)特有であると考え、当該被写体画像データに選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS717)。 If the candidate is not in the top L candidates but matches a candidate displayed in the T rank (YES in step S716), the data collection unit 114 uses the MC learning model 223(X) specific to USER-X. Considering this, the selected candidate (label) is added to the subject image data and added and stored in the MC teacher data set 224 (X) of USER-X (step S717).

上位T位以内の候補になく(ステップS716でNO)、USER-Xにその他を選択させた場合、データ収集部114は、被写体画像にあった分類(ラベル)を(4)自由入力により、モバイル端末100の入力部140を通じて入力させる(ステップS718)。 If it is not in the top T candidates (NO in step S716) and USER-X selects Others, the data collection unit 114 uses (4) free input to classify the classification (label) that matches the subject image into the mobile An input is made through the input unit 140 of the terminal 100 (step S718).

入力されたデータを図6に示す、同義語辞書(シノニムDB)680と照らし合わせて、同義語としての登録があった場合、データ収集部114は代表表記語に置換して、表記の揺らぎを防止する(ステップS719)。 The input data is compared with the synonym dictionary (synonym DB) 680 shown in FIG. 6, and if there is a registration as a synonym, the data collection unit 114 replaces it with a representative notation to eliminate fluctuations in the notation. prevent (step S719).

次に、データ収集部114は、入力された分類(ラベル)が、サブカテゴリ辞書(シソーラスDB)690に登録された分類カテゴリに該当するかチェックする(ステップS720)。 Next, the data collection unit 114 checks whether the input classification (label) corresponds to a classification category registered in the subcategory dictionary (thesaurus DB) 690 (step S720).

USER-Xが入力した答えが、既存のカテゴリと合致した場合、(1)モバイル用軽量学習モデル(共通)、(2)モバイル用軽量MC学習モデル(USER-X用)、(3)共通学習モデルのいずれの学習モデルでも、予測できなかった新しい被写体画像であったということで、とりあえず、データ収集部114はUSER-X固有のMC対象情報として、USER-XのMC教師データセットに追加・蓄積する(ステップS721)。 If the answer entered by USER-X matches an existing category, (1) Mobile lightweight learning model (common), (2) Mobile lightweight MC learning model (for USER-X), (3) Common learning Since this was a new subject image that could not be predicted by any of the learning models, the data collection unit 114 added it to the MC teacher dataset of USER-X as MC target information specific to USER-X. Accumulate (step S721).

入力された分類(ラベル)が、サブカテゴリ辞書(シソーラスDB)690に登録された分類カテゴリに該当するものがなかった(ステップS720でNO)場合、次に、データ収集部114は、サブカテゴリに該当するものがあるかチェックする。(ステップS722)。 If the input classification (label) does not correspond to any classification category registered in the subcategory dictionary (thesaurus DB) 690 (NO in step S720), then the data collection unit 114 determines whether the input classification (label) corresponds to the subcategory. Check if something is there. (Step S722).

USER-Xが入力した答えが既存のサブカテゴリと合致した場合(ステップS722においてYES)、(1)モバイル用軽量学習モデル(共通)、(2)モバイル用軽量MC学習モデル(USER-X用)、(3)共通学習モデルのいずれの学習モデルでも予測できなかった新しい被写体画像ではあるが、詳細な分類の知識に該当するため、専門教師データセット322に追加・蓄積する(ステップS723)。 If the answer input by USER-X matches an existing subcategory (YES in step S722), (1) mobile lightweight learning model (common), (2) mobile lightweight MC learning model (for USER-X), (3) Although this is a new subject image that could not be predicted by any of the common learning models, since it corresponds to detailed classification knowledge, it is added and stored in the specialized teacher data set 322 (step S723).

入力された分類(ラベル)が、サブカテゴリ辞書(シソーラスDB)690に登録された分類サブカテゴリにも該当するものがなかった(ステップS722でNO)場合、既存のカテゴリにもサブカテゴリにも存在しない新たな分類カテゴリを入力されたということで、データ収集部114は、サブカテゴリ辞書(シソーラスDB)690に新たなカテゴリとして当該ラベルを追加し、被写体画像データに入力された分類(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS723)。 If the input classification (label) does not correspond to any classification subcategory registered in the subcategory dictionary (thesaurus DB) 690 (NO in step S722), a new category that does not exist in any existing category or subcategory is added. Since the classification category has been input, the data collection unit 114 adds the label as a new category to the subcategory dictionary (thesaurus DB) 690, adds the input classification (label) to the subject image data, It is added to and stored in the MC teacher data set 224(X) of USER-X (step S723).

図7Cにおいて、(1)モバイル用軽量学習モデル(共通)、(2)モバイル用軽量MC学習モデル(USER-X用)、(3)共通学習モデルで、被写体画像データに選択した候補(ラベル)を付加して、各々の教師データセットに追加・蓄積した(ステップS702、S705、S708、S711、S714、S717)後、および(4)自由入力の分類(ラベル)が既存のカテゴリに存在した場合(ステップS721)は、データ収集部114は、当該カテゴリに、サブカテゴリ辞書(シソーラスDB)690に登録された分類サブカテゴリがあるかどうかをチェックする(ステップS725)。 In FIG. 7C, candidates (labels) selected for the subject image data in (1) mobile lightweight learning model (common), (2) mobile lightweight MC learning model (for USER-X), and (3) common learning model. (steps S702, S705, S708, S711, S714, S717), and (4) when a free input classification (label) exists in an existing category. (Step S721), the data collection unit 114 checks whether the category has a classification subcategory registered in the subcategory dictionary (thesaurus DB) 690 (step S725).

サブカテゴリを持つ場合(ステップS725においてYES)、データ収集部114は、USER-Xにサブカテゴリ化(詳細化)を望むかどうか問合せる(ステップS726)。 If there is a subcategory (YES in step S725), the data collection unit 114 inquires of USER-X whether subcategorization (detailing) is desired (step S726).

USER-Xが詳細化を望む場合(S727でYES)、データ収集部114は、被写体画像を専門サーバ300に送って(エスカレーションし)、(5)専門学習モデル321を使って画像を判定し、サブカテゴリに詳細化した確度の上位T位までの候補をモバイル端末100の表示部150に表示する(ステップS728)。 If USER-X desires detailing (YES in S727), the data collection unit 114 sends (escalates) the subject image to the specialized server 300, (5) judges the image using the specialized learning model 321, The top T candidates in terms of accuracy detailed into subcategories are displayed on the display unit 150 of the mobile terminal 100 (step S728).

次に、データ収集部114は、USER-Xが選択した答えが、上位k位以内の候補にあり、かつ確度d%以上かどうかを判定する(ステップS729)。上位k位以内の候補にあり、かつ確度d%以上だった場合(ステップS729においてYES)は、(5)専門学習モデル321が適した判定を行ったものと判断し、当該被写体の画像に選択した候補(ラベル)を付加して、専門教師データセット322に追加・蓄積する(S730)。 Next, the data collection unit 114 determines whether the answer selected by USER-X is among the top k candidates and has a probability of d% or more (step S729). If it is in the top k candidates and the accuracy is d% or more (YES in step S729), it is determined that (5) the specialized learning model 321 has made an appropriate determination, and it is selected as the image of the subject. The selected candidates (labels) are added and stored in the specialized teacher data set 322 (S730).

また、USER-Xにとって、当該被写体のような場合に、サブカテゴリに詳細化することが当該USER-X固有のこと、すなわちMCが必要な判定でもあるものと判断し、当該被写体の画像に選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)にも追加・蓄積する(ステップS731)。 In addition, for USER-X, in a case like the subject, it is unique to the USER-X to subcategory, that is, it is a judgment that requires MC, and it is selected for the image of the subject. The candidate (label) is added and also added to and stored in the MC teacher data set 224 (X) of USER-X (step S731).

一方、USER-Xが選択した答えが、上位k位以内の候補にあるが、確度d%未満だった場合(ステップS732でYES)は、専門学習モデル321のお勧めとは違う候補を選択したものと考え、当該USER-X固有のこと、すなわちMCが必要な判定であると判断し、当該被写体画像データに選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS737)。 On the other hand, if the answer selected by USER-X is among the top k candidates but the accuracy is less than d% (YES in step S732), a candidate different from the one recommended by the professional learning model 321 is selected. It is determined that this is a determination specific to the USER-X, that is, that MC is necessary, and the selected candidate (label) is added to the subject image data, and the MC teacher data set 224 ( X) (step S737).

さらに、上位k位以内の候補になかったが、T位以内に表示された候補と一致した(ステップS733でYES)場合は、専門学習モデル321のお勧めとは違う候補を選択したものと考え、当該USER-X固有のこと、すなわちMCが必要な判定であると判断し、当該被写体画像データに選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS737)。 Furthermore, if the candidate is not among the top k candidates but matches the candidate displayed within the T rank (YES in step S733), it is assumed that a candidate different from the one recommended by the professional learning model 321 has been selected. , determines that it is a determination specific to the USER-X, that is, that MC is necessary, adds the selected candidate (label) to the subject image data, and adds it to the MC teacher data set 224 (X) of the USER-X. Add and accumulate (step S737).

USER-Xが選択した答えが、上位T位以内の候補になかった(ステップS733でNO)場合、その他を選択してもらって、図6の例に示すサブカテゴリ辞書(シソーラスDB)690を参照して、当該カテゴリのサブカテゴリ候補を全て、スクローリング等の手法で、1画面に収まらない候補まですべてを提示し、USER-Xには、その中から自由に選択してもらうようにする。(ステップS734) If the answer selected by USER-X is not among the top T candidates (NO in step S733), ask the user to select Other and refer to the subcategory dictionary (thesaurus DB) 690 shown in the example of FIG. , all subcategory candidates for the category are presented, including those that do not fit on one screen, by scrolling or other methods, and the USER-X is allowed to freely select from among them. (Step S734)

そして、USER-Xの選択肢がその中になかった場合は、USER-Xに自由にキー入力にて詳細なサブカテゴリを入力してもらう(ステップS735)。この際、コンボボックスタイプの入力方法(プルダウンとキー入力の両方が可能)を用いる。 If USER-X's options are not among them, USER-X is asked to freely input detailed subcategories by key input (step S735). In this case, use a combo box type input method (both pulldown and key input are possible).

このようにして入力されたデータを図6に示す、同義語辞書(シノニムDB)680と照らし合わせて、同義語としての登録があった場合、代表表記語に置換して、表記の揺らぎを防止する(ステップS736)。 The data input in this way is compared with the synonym dictionary (synonym DB) 680 shown in FIG. 6, and if there is a registration as a synonym, it is replaced with a representative notation to prevent fluctuations in the notation. (Step S736).

USER-Xが選択した候補や、自由にキー入力してもらったサブカテゴリは、サブカテゴリ辞書(シソーラスDB)690に新たなレコードとして追加する。なお、シソーラスDB690の正式更新には、管理者の承認を必要とすることも可能である。この後、MCが必要な場合と判断し、当該被写体の画像に入力した候補(ラベル)を付加して、USER-Xのモバイル用MC教師データセット123(X)に追加・蓄積する(ステップS737)。このデータは、まだ新しくUSER-X固有のことである可能性が高いため、この時点では専門教師データセット322には追加しない。 The candidates selected by USER-X and the subcategories entered freely by key are added to the subcategory dictionary (thesaurus DB) 690 as new records. Note that formal updating of the thesaurus DB 690 may require approval from the administrator. After this, it is determined that MC is necessary, the input candidate (label) is added to the image of the subject, and it is added and stored in the mobile MC teacher data set 123 (X) of USER-X (step S737 ). Since this data is likely to be new and specific to USER-X, it is not added to the professional teacher data set 322 at this point.

従って、本実施例によれば、モバイル端末100のデータ収集部114は、分類の修正または追加入力を専門サーバ300に送信し、専門サーバ300は、モバイル端末100から送信された修正または追加入力を用いて専門教師データセット322を生成する専門データ収集部314と、専門教師データセット322を用いて専門学習モデル321を生成する専門学習モデル生成部312と、モバイル端末100のモバイル用画像判定部111による判定が困難な場合、画像に基づいて専門学習モデル321を用いて被写体を判定する専門画像判定部311とを有する。 Therefore, according to the present embodiment, the data collection unit 114 of the mobile terminal 100 transmits the modification or additional input of the classification to the specialized server 300, and the specialized server 300 receives the modification or additional input transmitted from the mobile terminal 100. a specialized data collection unit 314 that generates a specialized teacher data set 322 using the specialized teacher data set 322; a specialized learning model generation unit 312 that generates a specialized learning model 321 using the specialized teacher dataset 322; and a mobile image determination unit 111 of the mobile terminal 100. If it is difficult to make a determination based on the image, the specialized image determination unit 311 uses a specialized learning model 321 to determine the subject based on the image.

従って、本実施例によれば、被写体の分類(カテゴリ)に詳細な分類(サブカテゴリ)を設定して詳細な判定を行うことができるので、画像の類似判定作業をより精密に行うことができる。 Therefore, according to the present embodiment, detailed classifications (subcategories) can be set in the classifications (categories) of objects and detailed determinations can be made, so that image similarity determination work can be performed more precisely.

さらに、本実施例によれば、共通サーバ200の共通データ収集部214は、モバイル端末100から送信された修正または追加入力を用いてMC教師データセット224を生成し、共通サーバ200の共通学習モデル生成部212は、MC教師データセット224を用いてMC学習モデル223を生成し、さらに、MC学習モデル223を軽量化してモバイル用軽量MC学習モデル122を生成し、このモバイル用軽量MC学習モデル122をモバイル端末100に送信し、モバイル端末100のモバイル用画像判定部111は、モバイル用軽量学習モデル121とモバイル用軽量MC学習モデル122とを用いて被写体を判定している。 Further, according to the present embodiment, the common data collection unit 214 of the common server 200 generates the MC teacher data set 224 using the correction or additional input sent from the mobile terminal 100, and generates the common learning model of the common server 200. The generation unit 212 generates an MC learning model 223 using the MC teacher data set 224, further reduces the weight of the MC learning model 223 to generate a mobile lightweight MC learning model 122, and generates a mobile lightweight MC learning model 122. is transmitted to the mobile terminal 100, and the mobile image determination unit 111 of the mobile terminal 100 determines the subject using the mobile lightweight learning model 121 and the mobile lightweight MC learning model 122.

従って、本実施例によれば、モバイル端末100を使用する個々のユーザ毎にMCされたモバイル用軽量MC学習モデル122を用いて画像判定を行うことができるので、ユーザが好む詳細な分類の判定を的確に行うことができる。 Therefore, according to the present embodiment, image judgment can be performed using the mobile lightweight MC learning model 122 that has been MC'd for each individual user using the mobile terminal 100, so that detailed classifications preferred by the user can be judged. can be performed accurately.

なお、本実施例では、人工知能を構成する端末やサーバ群が多段構造(モバイル端末100、共通サーバ200、専門サーバ300)を形成し、求める精度に応じてエスカレーションしている(モバイル端末100(ローカル処理)→共通サーバ200(オンプレミス)→専門サーバ30(オンプレミスまたはネットワークAI))。 In this embodiment, a group of terminals and servers that make up the artificial intelligence form a multi-stage structure (mobile terminal 100, common server 200, specialized server 300), and escalation is performed according to the desired accuracy (mobile terminal 100 ( local processing) → common server 200 (on-premises) → specialized server 30 (on-premises or network AI)).

そして、この専門サーバ300(オンプレミス)でもわからなければ、その後ろにある複数のネットワークAI(インターネット検索エンジンがベースの自社/他社提供AI)に問合せて、多数意見を回答とする方式も考えられる。将来的には、より高度な知見を持ったネットワークAIが無償(一部有償)で提供されるようになることが予想される。ネットワークAIは、高度であればあるほど提供されるサービス数は少なくなり、逆に全世界からエスカレーショントランザクションが上がって来るので、バランスの取れたシステム(AI-WiKi)となる。そうしたネットワークAI体系を含めて、専門サーバ300と呼ぶことも可能である。 If this specialized server 300 (on-premises) does not provide an answer, it is possible to inquire of multiple network AIs behind it (AIs provided by the company or other companies based on Internet search engines) and receive the majority opinion as the answer. In the future, it is expected that network AI with more advanced knowledge will be provided free of charge (with some charges). The more advanced network AI is, the fewer services it provides, and conversely, escalation transactions come from all over the world, resulting in a well-balanced system (AI-WiKi). It is also possible to include such a network AI system and call it a specialized server 300.

以下の説明において、実施例2では、画像判定動作を主に共通サーバ200で行っているものとして説明するが、上述の実施例1のように、画像判定動作を主にモバイル端末100で行うことも可能である。 In the following description, in the second embodiment, the image determination operation is mainly performed by the common server 200. However, as in the above-mentioned first embodiment, the image determination operation is mainly performed by the mobile terminal 100. is also possible.

本実施例の画像判定システムSと実施例1の画像判定システムSとの相違点は、共通サーバ200、専門サーバ300の機能構成及びモバイル端末100の動作にある。 The difference between the image determination system S of this embodiment and the image determination system S of the first embodiment lies in the functional configurations of the common server 200 and the specialized server 300 and the operation of the mobile terminal 100.

すなわち、共通サーバ200の共通制御部210は、共通画像判定部211及び共通成熟度算出部215を有し、専門サーバ300の専門制御部310は専門成熟度算出部315を有する。 That is, the common control unit 210 of the common server 200 has a common image determination unit 211 and a common maturity level calculation unit 215, and the specialized control unit 310 of the specialized server 300 has a specialized maturity level calculation unit 315.

共通成熟度算出部215、または、専門成熟度算出部315は、各学習済みモデルの学習(訓練)の経験の深さを表す指標を数値化するための計算機構であり、初期または、収集されて纏まった共通教師データセット222や、専門教師データセット322を使って、共通学習モデル221や、それを軽量化して生成するモバイル用軽量学習モデル(共通)121、専門学習モデル321を生成するタイミングで動作し、分類ごとに成熟度が計算される。 The common maturity level calculation unit 215 or the specialized maturity level calculation unit 315 is a calculation mechanism for quantifying an index representing the depth of learning (training) experience of each learned model. The timing of generating the common learning model 221, the mobile lightweight learning model (common) 121, and the specialized learning model 321, which are generated by reducing the weight of the common learning model 221, using the common teacher data set 222 and the specialized teacher data set 322 that have been compiled. The maturity level is calculated for each classification.

また、共通成熟度算出部215、または、専門成熟度算出部315は、画像判定システムSが動作(運用)しながら、モバイル端末100等から収集された、各USER-Xのモバイル用MC教師データセット123(X)に追加・蓄積されたデータや、共通教師データセット222に追加・蓄積されたデータ、MC教師データセット224(X)、専門教師データセット322に追加・蓄積されたデータを用いて、または加えて、再学習により、共通学習モデル221や、それを軽量化して生成するモバイル用軽量学習モデル(共通)121、専門学習モデル321、MC学習モデル(X)223(X)、モバイル用軽量MC学習モデル122(X)の新規生成またはリニューアル版の学習モデルを生成するタイミングで動作し、分類ごとに成熟度が計算される。 In addition, the common maturity level calculation unit 215 or the specialized maturity level calculation unit 315 calculates the mobile MC teacher data of each USER-X collected from the mobile terminal 100 etc. while the image judgment system S is operating (operating). Using data added and accumulated in the set 123 (X), data added and accumulated in the common teacher data set 222, data added and accumulated in the MC teacher data set 224 (X), and the specialized teacher data set 322. In addition, or in addition, by relearning, the common learning model 221, the mobile lightweight learning model (common) 121 that is generated by reducing its weight, the specialized learning model 321, the MC learning model (X) 223 (X), the mobile It operates at the timing of generating a new or renewed version of the lightweight MC learning model 122(X), and calculates the maturity level for each classification.

共通成熟度算出部215、または、専門成熟度算出部315による成熟度の算出手順について説明する。 A procedure for calculating the maturity level by the common maturity level calculation unit 215 or the specialized maturity level calculation unit 315 will be described.

まず、成熟度における学習データ量因子の算出方式について説明する。被写体画像のカテゴリ、またはサブカテゴリ(以下、クラスという。)cに関する、訓練データ数がnの時の学習データ量因子関数volは、訓練データ数nの関数であり、その値域は[0,1]である。一例として、アークタンジェント関数を用いて、学習データ量因子関数volを次のように定義する。

Figure 0007357551000001
First, a method for calculating the learning data amount factor for maturity level will be explained. Regarding the category or subcategory (hereinafter referred to as class) c of the subject image, when the number of training data is n, the learning data amount factor function vol is a function of the number of training data n, and its value range is [0, 1] It is. As an example, a learning data amount factor function vol is defined as follows using an arctangent function.
Figure 0007357551000001

なお、パラメータNは標準学習データ量で1以上の整数であり、パラメータaはアークタンジェント関数の係数で、正の実数値とする。あくまでも例だが、標準学習データ量の半量で学習するとほぼ50%の成熟度に成長するものとし、aの値によって、成熟度曲線の立ち上がりがなだらかになったり(例えば、0<a<1.0)、急な立ち上がりを示す(例えば、a>1.0)。すなわち、教師データが充分少ない場合、成熟度は低い(人間の赤ちゃんがものごとを理解/認知するためには一定量の教師データが必要と言うことに近似)。充分多い場合でも100%にはならず、成熟度=100%の漸近線に近づくのみ(人間のその道のエキスパート(博士)であっても、非常に多くの教師データを学習しても、完全な理解/認知が可能となるわけではないことに近似)となる。 Note that the parameter N is a standard learning data amount and is an integer of 1 or more, and the parameter a is a coefficient of an arctangent function and is a positive real value. This is just an example, but it is assumed that learning with half the amount of standard training data will grow to approximately 50% maturity, and depending on the value of a, the rise of the maturity curve will be gradual (for example, 0<a<1.0 ), exhibiting a sudden rise (for example, a>1.0). In other words, if there is insufficient training data, the level of maturity is low (approximately similar to saying that a certain amount of training data is required for human babies to understand/recognize things). Even if the number is large enough, it will not reach 100%, and will only approach the asymptote of maturity = 100% (even if you are an expert (doctor) in that field, even if you learn a very large amount of training data, it will not reach 100%). (an approximation that understanding/cognition is not possible).

次に、学習成熟度における学習データ類似性因子の算出方式について説明する。クラスcに関する学習データ類似性因子関数simは、クラスcに属する訓練データX={x,x,…、x}の関数であり、その値域は[0,1]である。この関数は、データの類似性が最低のとき最小値を取り、類似性が最大のとき最大値を取る。 Next, a method for calculating the learning data similarity factor at the learning maturity level will be explained. The learning data similarity factor function sim regarding class c is a function of training data X={x 1 , x 2 , . . . , x n } belonging to class c, and its range is [0, 1]. This function takes the minimum value when the data have the lowest similarity, and the maximum value when the data have the highest similarity.

一例として、類似度関数SIMを用いて、学習データ類似性因子関数simを次のように定義する。bは、類似度関数の係数で、値域[0,1]とする。

Figure 0007357551000002
ただし、
Figure 0007357551000003
なお、類似度関数SIM(x,x)は、データペアx,xの類似度が最高のとき1、最低のとき0となる値域[0,1]の関数である。 As an example, the learning data similarity factor function sim is defined as follows using the similarity function SIM. b is a coefficient of the similarity function and is in the range [0, 1].
Figure 0007357551000002
however,
Figure 0007357551000003
Note that the similarity function SIM(x 1 , x 2 ) is a function in the range [0, 1] that is 1 when the similarity of the data pair x 1 , x 2 is the highest and 0 when it is the lowest.

学習成熟度は、学習データ量因子と学習データ類似性因子の関数とする。一般には、次の式で表せる。

Figure 0007357551000004
The learning maturity level is a function of the learning data amount factor and the learning data similarity factor. Generally, it can be expressed by the following formula.
Figure 0007357551000004

学習成熟度のうち、学習データ量因子と学習データ類似性因子で定義されるものを、単純学習成熟度と呼ぶ。すなわち、

Figure 0007357551000005
である。本実施例では、共通成熟度算出部215は単純学習成熟度を算出する。 Among the learning maturity levels, the one defined by the learning data amount factor and the learning data similarity factor is called the simple learning maturity level. That is,
Figure 0007357551000005
It is. In this embodiment, the common maturity level calculation unit 215 calculates the simple learning maturity level.

そして、モバイル端末100の表示部は、画像と、共通画像判定部211により判定された被写体の分類と、共通成熟度算出部215、または、専門成熟度算出部315により算出された成熟度を各学習モデルが判定した確度とともに提示する。提示方法は、成熟度を数値のまま%表示することでも構わないが、学習モデルのクラスcに関する成熟度を例えば、幼児レベルから、小学生、大人、博士レベルまで、イメージをつかみやすいようにイラスト表示することなどが考えられる。(図13) Then, the display unit of the mobile terminal 100 displays the image, the subject classification determined by the common image determination unit 211, and the maturity level calculated by the common maturity level calculation unit 215 or the specialized maturity level calculation unit 315. Presented along with the accuracy determined by the learning model. The presentation method can be to display the maturity level as a percentage as a numerical value, but it is also possible to display the maturity level for class C of the learning model, for example, from infant level to elementary school student, adult, and doctoral level, with illustrations to make it easier to understand. Possible things to do. (Figure 13)

図8は、実施例2に係る画像判定システムSの逐次学習プロセス処理の一例(通常時)を示すフローチャートである。 FIG. 8 is a flowchart illustrating an example (normal time) of the sequential learning process processing of the image determination system S according to the second embodiment.

まず、ユーザはモバイル端末100の撮像部130を用いて被写体を撮像して画像を取得する(ステップS800)。 First, the user uses the imaging unit 130 of the mobile terminal 100 to capture an image of a subject (step S800).

画像判定システムSは、各学習モデル(モバイル用軽量学習モデル121→モバイル用軽量MC学習モデル122→共通学習モデル221→MC学習モデル223→専門学習モデル321)に基づき、順次必要に応じてエスカレーションしながら当該画像を判定する(ステップS801)。 The image judgment system S sequentially escalates as necessary based on each learning model (mobile lightweight learning model 121 → mobile lightweight MC learning model 122 → common learning model 221 → MC learning model 223 → specialized learning model 321). while determining the image (step S801).

判定処理結果である被写体の分類は、その分類の確度とともにモバイル端末100の表示部150に表示される。(ステップS802)。そして、表示された候補の中に正しいカテゴリがあるか否かがUSER-Xにより判定される(ステップS803)。判定が肯定されたらプログラムはステップS804に移行し、判定が否定されたらプログラムはステップS807に移行する。 The classification of the subject, which is the result of the determination process, is displayed on the display unit 150 of the mobile terminal 100 together with the accuracy of the classification. (Step S802). Then, USER-X determines whether there is a correct category among the displayed candidates (step S803). If the determination is affirmative, the program moves to step S804, and if the determination is negative, the program moves to step S807.

ステップS804では、表示部150に表示されている候補の中から正しいカテゴリを選択する。 In step S804, a correct category is selected from the candidates displayed on the display unit 150.

次に、選択されたクラスcの学習成熟度がθ以上で確度がκ以下であるか否かが判定される(ステップS805)。判定が肯定されたら、ステップS806において成熟後フィードバックプロセス1を実行する。その後、プログラムはステップS809に移行する。 Next, it is determined whether the learning maturity level of the selected class c is greater than or equal to θ and the accuracy is less than or equal to κ (step S805). If the determination is affirmative, the post-maturation feedback process 1 is executed in step S806. After that, the program moves to step S809.

一方、ステップS807では、USER-Xは正しいカテゴリを入力し、ステップS808において成熟後フィードバックプロセス2を実行する。 On the other hand, in step S807, USER-X inputs the correct category, and in step S808, the post-maturation feedback process 2 is executed.

次いで、共通サーバ200は、モバイル端末100により撮像された画像データとUSER-Xが選択/入力したカテゴリとを共通記憶部220に蓄積する(ステップS809)。そして、共通サーバ200の共通学習モデル生成部212は、ステップS809で蓄積されたデータに基づいて共通学習モデル221を生成する(ステップS810)。 Next, the common server 200 stores the image data captured by the mobile terminal 100 and the category selected/input by USER-X in the common storage unit 220 (step S809). The common learning model generation unit 212 of the common server 200 then generates the common learning model 221 based on the data accumulated in step S809 (step S810).

図8のステップS806である成熟後フィードバックプロセス1について、図9を参照して説明する。 Post-maturation feedback process 1, which is step S806 in FIG. 8, will be described with reference to FIG. 9.

まず、ステップS900で、当該クラスcの成熟度が高い(θ以上)であるにもかかわらず、確度が低い(κ以下)の事態が、極めてまれなケースでそれほど頻度が多くはない場合は、学習成熟度関数を直す必要がないので、このような事象になった回数をカウントアップする。すなわち、初期値CNT(c)=0の、CNT(c)の値を1加算する。 First, in step S900, if the situation in which the maturity level of the class c is high (more than θ) but the certainty is low (less than κ) is extremely rare and does not occur very often, Since there is no need to correct the learning maturity function, the number of times such an event occurs is counted up. That is, 1 is added to the value of CNT(c) where the initial value CNT(c)=0.

次に、CNT(c)の値が、一定値M(例えば、Mは5件とか、10件と言った自然数でも良いし、標準学習量Ncのm%として計算される値でも良い)を超えたかどうかを判定する(ステップS901)。Mを超えた場合(ステップS901においてYES)は、この事態がまれにある場合(例外ケース)ではないものと判断し、学習成熟度関数を調整するステップS903~905へ進む。M以下であった場合は、終了する(何もしない)。 Next, the value of CNT(c) exceeds a certain value M (for example, M may be a natural number such as 5 or 10 cases, or a value calculated as m% of the standard learning amount Nc). It is determined whether or not (step S901). If M is exceeded (YES in step S901), it is determined that this situation is not a rare case (an exceptional case), and the process proceeds to steps S903 to S905 for adjusting the learning maturity function. If it is less than or equal to M, the process ends (does nothing).

ステップS902ではCNT(c)に0を代入して、初期化する。 In step S902, 0 is assigned to CNT(c) to initialize it.

学習習熟度関数の変更のため、ステップS903では標準学習データNcを増やし(例えば2倍)、ステップS904ではvolの係数aを減らし(例えば1/2)、ステップS905ではsimの係数bを減らし(例えば1/2)、学習習熟度を再計算する。この3つのステップは、どれか一つでも構わないし、2つを選択して実施しても構わないし、3つ全てのステップを同時に行っても構わない。 To change the learning proficiency function, the standard learning data Nc is increased (for example, by 2 times) in step S903, the coefficient a of vol is decreased (for example, by 1/2) in step S904, and the coefficient b of sim is decreased in step S905 ( For example, 1/2), the learning proficiency level is recalculated. Any one of these three steps may be performed, two may be selected and performed, or all three steps may be performed at the same time.

一般的には、S903でNcを増やす。学習曲線の立ち上がりが早すぎたと判断される場合は、S904を実行し、曲線をなだらかに寝かせる。成熟度の数字そのものが、イメージイラストとずれていると感じた場合は、S905を実行し成熟度そのものの絶対値を減らす。どのケースに当てはまるかを自動的に判断する機構については、S903でNcを増やす行為を何度か繰り返しても効果がなかった場合は、S904を試すなど、自動的に試行錯誤しながら成長する機構を組み込めばよい。 Generally, Nc is increased in S903. If it is determined that the learning curve has risen too quickly, S904 is executed to smooth the curve. If it is felt that the maturity level itself deviates from the image illustration, S905 is executed to reduce the absolute value of the maturity level itself. The mechanism that automatically determines which case applies is a mechanism that automatically grows through trial and error, such as trying S904 if increasing Nc in S903 several times has no effect. Just incorporate it.

次に、図8のステップS808である成熟後フィードバックプロセス2について、図10を参照して説明する。 Next, the post-maturation feedback process 2, which is step S808 in FIG. 8, will be described with reference to FIG. 10.

USER-Xにより入力されたクラスcは、画像判定システムsが選んだ候補ではないため、当該クラスcの学習成熟度が登録されているかどうかをチェックする必要がある。学習成熟度は、学習モデルを生成するごとにそれぞれで計算されるため、該当する学習モデルの学習成熟度を参照する。(ステップS1000) Since the class c input by USER-X is not a candidate selected by the image determination system s, it is necessary to check whether the learning maturity level of the class c is registered. Since the learning maturity level is calculated each time a learning model is generated, the learning maturity level of the corresponding learning model is referred to. (Step S1000)

次に、学習成熟度が登録済みであって、一定値θ以上であるかどうかを判定する(ステップS1001)。θ以上であった場合(ステップS1001においてYES)、充分な成熟をしているにもかかわらず、確度が低かったということになる(高い確度なら選択候補にあるはず)ので、ステップS1002へ進み、成熟後フィードバックプロセス1を実行して、学習成熟度関数を修正する。θ未満であった場合は、当該クラスcについては学習がまだ進んでいないと判断し、何もしない。 Next, it is determined whether the learning maturity level has been registered and is greater than or equal to a certain value θ (step S1001). If it is θ or more (YES in step S1001), it means that the accuracy is low even though it is sufficiently mature (if the accuracy is high, it should be a selection candidate), so the process advances to step S1002. Perform post-maturation feedback process 1 to modify the learning maturity function. If it is less than θ, it is determined that learning has not progressed yet for the class c, and nothing is done.

このように構成される本実施例によれば、共通サーバ200は、モバイル端末100から送信された画像に基づいて被写体の分類を判定する共通画像判定部211と、分類毎の共通学習モデル221の量及び多様性を示す成熟度を算出する共通成熟度算出部215とを有し、モバイル端末100の表示部150には、画像と、共通画像判定部211により判定された被写体の分類と、共通成熟度算出部215により算出された成熟度とが提示される。 According to this embodiment configured in this way, the common server 200 includes a common image determining unit 211 that determines the classification of the subject based on the image transmitted from the mobile terminal 100, and a common learning model 221 for each classification. The display unit 150 of the mobile terminal 100 displays the image, the classification of the subject determined by the common image determination unit 211, and the common maturity level calculation unit 215 that calculates the maturity level indicating the amount and diversity. The maturity level calculated by the maturity level calculation unit 215 is presented.

従って、本実施例によれば、共通学習モデル221を用いた被写体の画像判定の推論が正しいものであるかどうかを判断することができる。 Therefore, according to the present embodiment, it is possible to determine whether the inference of subject image determination using the common learning model 221 is correct.

つまり、本実施例では、訓練データの量、及び訓練データの多様性に基づき、クラス別のデータ成熟度を算出して、ユーザに提示している。これにより、ユーザは共通学習モデル221が偶然正しい(または誤った)推論をしているのか、十分な学習の上で正しい(または誤った)推論をしているのかを知ることができる。そして、データ成熟度と推論精度(確度)により、ユーザは当該分類タスクへのAIの適用可能性を判断できる。 That is, in this embodiment, the data maturity level for each class is calculated based on the amount of training data and the diversity of the training data, and is presented to the user. This allows the user to know whether the common learning model 221 is making a correct (or incorrect) inference by chance, or is making a correct (or incorrect) inference based on sufficient learning. Based on the data maturity level and inference accuracy (accuracy), the user can judge the applicability of AI to the classification task.

一例として、図11に示すように、当初の共通学習モデル221(学習モデルA)では被写体を撮像した画像に対する判定において正解となる分類「鳥」の確度は0.10、成熟度は0.03であったが、その後学習が進展した共通学習モデル221(学習モデルB)では正解となる分類「鳥」の確度が0.50に向上するとともに成熟度も0.50に向上している。従って、学習の進展により正しい推論ができていることがわかる。 As an example, as shown in FIG. 11, in the initial common learning model 221 (learning model A), the accuracy of the classification "bird" which is the correct answer in the judgment for the image taken of the subject is 0.10, and the maturity level is 0.03. However, in the common learning model 221 (learning model B) in which learning has progressed since then, the accuracy of the correct classification "bird" has improved to 0.50, and the maturity level has also improved to 0.50. Therefore, it can be seen that correct inferences are being made as learning progresses.

一方、図12に示すように、当初の共通学習モデル221(学習モデルA)では被写体を撮像した画像に対する判定において正解となる分類「鳥」の確度は0.10、成熟度は0.03であったが、その後学習が進展した共通学習モデル221(学習モデルB)では正解となる分類「鳥」の確度が0.10のまま進展しない一方、成熟度は0.50に向上している。従って、学習の進展により正しい推論ができていないことがわかる。この場合、学習モデルを用いた推論が難しいタスクである可能性が高い。 On the other hand, as shown in FIG. 12, in the initial common learning model 221 (learning model A), the accuracy of the classification "bird" which is the correct answer in the judgment for the image taken of the subject is 0.10, and the maturity level is 0.03. However, in the common learning model 221 (learning model B) in which learning has progressed since then, the accuracy of the correct classification "bird" remains at 0.10 and has not progressed, while the maturity level has improved to 0.50. Therefore, it can be seen that correct inference cannot be made due to the progress of learning. In this case, inference using a learning model is likely to be a difficult task.

図13に示すように、本実施例では、学習対象物ごとに人工知能の学習の成熟度(知見の深さ)をビジュアルに提示し、人工知能の判断結果を人間がどの程度参考にすればよいのかの指標を与えることで、人間の最終判断に寄与することができる。 As shown in Figure 13, in this example, the learning maturity level (depth of knowledge) of the artificial intelligence is visually presented for each learning object, and the extent to which humans should refer to the judgment results of the artificial intelligence is shown. By providing an indicator of whether something is good or not, it can contribute to people's final judgment.

つまり、人工知能も人間のアドバイザーやコンサルタントと同じように得意不得意分野がある。確度のみの提示では、自信の有無を表現できていない。どれだけ勉強してきたかの指標を成熟度として示すことで、信用のおける人工知能かどうかをユーザに理解させた上で、人間の最終判断を仰ぐことができる。 In other words, just like human advisors and consultants, artificial intelligence has its strengths and weaknesses. Presenting only accuracy does not express the presence or absence of confidence. By showing the level of maturity as an indicator of how much learning has been done, the user can understand whether the artificial intelligence is trustworthy or not, and then ask a human to make the final decision.

次に、図14を参照して、実施例1及び実施例2が適用されるアプリケーションについて説明する。 Next, with reference to FIG. 14, an application to which the first embodiment and the second embodiment are applied will be described.

図14に示すアプリケーションは、覆面調査員を使ったレストランメニューの評価である。例えば数千人の覆面調査員に対して3ヶ月間様々なレストランのメニューを評価する業務を依頼する。 The application shown in FIG. 14 is an evaluation of a restaurant menu using an undercover investigator. For example, thousands of undercover investigators are asked to evaluate the menus of various restaurants for three months.

まず、インターネットの募集を見て覆面調査員として登録する。次に、好きなレストランに行って好きなメニューを注文し、運ばれてきたメニューを撮影する。画像判定システムSは撮影された画像に基づいてそのメニュー(分類)を判定する。覆面調査員は、画像判定システムSの判定結果を参照して、メニューを選択、登録する。その後、覆面調査員は食事をして評価を入力し、サーバ(共通サーバ200/専門サーバ300またはそれ以外のサーバ)に送信する。評価項目としては、例えばメニューの名前、写真、値段、見た目の評価、味、満足感(量)、個人的感想などである。 First, he registers as an undercover investigator by looking at job postings on the Internet. Next, go to your favorite restaurant, order your favorite menu, and take a photo of the menu that is brought to you. The image determination system S determines the menu (classification) based on the photographed image. The undercover investigator refers to the determination result of the image determination system S, selects and registers a menu. Thereafter, the undercover investigator eats, inputs an evaluation, and sends it to the server (common server 200/specialized server 300 or other server). Evaluation items include, for example, menu name, photo, price, appearance evaluation, taste, satisfaction (quantity), and personal impressions.

その後、既定の評価の量や情報に応じて調査手数料(食事代補助を含む)が覆面調査員に支払われる。 The undercover investigator will then be paid a survey fee (including meal allowance) based on the amount and information provided for the predetermined evaluation.

本実施例では、ある知識について共通教師データセット222として用いるか(モバイル用)MC教師データセット123、224として用いるかについての判断基準について説明する。本実施例の画像判定システムSの判断基準を、以下、サンプリング回答補正方式と称する。 In this embodiment, the criteria for determining whether to use certain knowledge as the common teacher data set 222 or as the MC teacher data sets 123 and 224 (for mobile) will be explained. The judgment standard of the image judgment system S of this embodiment is hereinafter referred to as a sampling response correction method.

図14に示すアプリケーションを例にとって考えると、ラーメンに対する知識が豊富なある覆面調査員Aが、その他を選んで新たなカテゴリを正解として入力した場合、一旦、この覆面調査員AのMC教師データセットとして扱い、共通教師データセットに組み込む候補データとして考える。 Taking the application shown in Figure 14 as an example, if a certain undercover investigator A, who has a wealth of knowledge about ramen, selects "Other" and inputs a new category as the correct answer, the MC teacher data set of this undercover investigator A and consider it as candidate data to be incorporated into the common teacher dataset.

あるタイミングで、同じ問題(例えば、「味噌豚骨ラーメン」の画像)を、別の覆面調査員2n人(例えば覆面調査員B、C)に調査依頼を出し、人間による別の回答を促す。 At a certain timing, a request is made to 2n other undercover investigators (for example, undercover investigators B and C) to investigate the same question (for example, an image of "miso pork bone ramen"), and a different human answer is prompted.

別の覆面調査員による回答の内、n人以上が、覆面調査員Aと同じ回答(「味噌豚骨ラーメン」)をした場合、覆面調査員Aの回答も加えると過半数を占めるので、共通教師データに格上げする。一方、別の覆面調査員による回答の内、n人未満が覆面調査員Aの回答と違う回答(ただの「ラーメン」)をした場合、覆面調査員Aの回答を覆面調査員A用のモバイル用MC教師データとして扱う。 If more than n people give the same answer as Masked Investigator A ("Miso Tonkotsu Ramen") out of the answers given by different masked investigators, the common teacher will Upgrade to data. On the other hand, if less than n people give a different answer from the answer given by another undercover investigator (just ``ramen''), then the answer of undercover investigator A will be transferred to the mobile phone for undercover investigator A. Treated as MC training data.

実施例4は、ユーザ毎のMC教師データセットが、当該ユーザ特有のものか、共通知識化が可能かを判定する例を示す。図15は、実施例4で他のユーザの回答を集計して共通知識化が可能かどうかを判定する「サンプリング回答補正方式」処理の一例を示すフローチャートである。 Embodiment 4 shows an example of determining whether the MC teacher data set for each user is unique to the user or whether it can be converted into common knowledge. FIG. 15 is a flowchart illustrating an example of the "sampling answer correction method" process in which answers of other users are aggregated to determine whether it is possible to convert them into common knowledge in the fourth embodiment.

まず、データ収集部114は、あるUSER-Xの回答が、モバイル用軽量MC学習モデル122の回答やモバイル用軽量学習モデル121の回答の中にない(「その他」を選択した)場合、共通サーバ200上のMC学習モデル223(X)及び共通学習モデル221に問合せるが、やはりその中にも回答がない(「その他」を選択した)場合、自由入力により正解データを入力させる(ステップS1500)。入力された教師データは、データ収集部114が一旦モバイル用MC教師データセット123(X)に格納する。 First, if the answer of a certain USER-X is not among the answers of the mobile lightweight MC learning model 122 or the answers of the mobile lightweight learning model 121 ("other" is selected), the data collection unit 114 The inquiry is made to the MC learning model 223(X) and the common learning model 221 on the MC learning model 200, but if there is no answer there either (``Others'' is selected), the correct answer data is input by free input (step S1500). The input teacher data is temporarily stored in the mobile MC teacher data set 123(X) by the data collection unit 114.

次いで、モバイル用MC教師データセットにデータがある程度蓄積されたら、その中から共通知識化が可能なデータを見つける (他の人間の回答による確認)プロセスを起動する(ステップS1501)。すなわち、共通データ収集部214は、USER-Xのモバイル用MC教師データセット123(X)からサンプリングしたデータを、USER-X以外の2n(n=1以上の整数)のユーザに同じ問題を共通サーバ200からモバイル端末100に配信し、回答を集める(ステップS1502)。 Next, when a certain amount of data has been accumulated in the mobile MC teacher data set, a process for finding data that can be converted into common knowledge (confirmation based on answers from other people) is started (step S1501). That is, the common data collection unit 214 uses data sampled from the mobile MC teacher data set 123 (X) of USER-X to share the same problem with 2n (n = an integer greater than or equal to 1) users other than USER-X. The information is distributed from the server 200 to the mobile terminal 100, and responses are collected (step S1502).

そして、共通データ収集部214は、n人以上の回答がUSER-Xの回答と一致したか否かを判定し(ステップS1503)、判定が肯定されたら(ステップS1503においてYES)、モバイル用MC教師データセット123(X)に格納したMCデータを削除し、共通教師データセット222に格上げして格納する(ステップS1504)。 Then, the common data collection unit 214 determines whether or not the answers of n or more people match the answers of USER-X (step S1503), and if the determination is affirmative (YES in step S1503), the mobile MC teacher The MC data stored in the data set 123(X) is deleted, upgraded and stored in the common teacher data set 222 (step S1504).

図16は、「MC学習モデル補正方式」処理の一例を示すフローチャートである。 FIG. 16 is a flowchart illustrating an example of the "MC learning model correction method" process.

モバイル用MC教師データセットのデータがある程度蓄積されたら、その中から共通知識化が可能なデータを自動的に見つけるためのプロセスを起動する(ステップS1600)。すなわち、共通データ収集部214は、USER-Xが所有するモバイル端末100のモバイル用MC教師データセット123(X)からサンプリングしたデータをこのUSER-Xのモバイル端末100以外の2n(n=1以上の整数)のモバイル用軽量MC学習モデル122及び共通サーバ200上のMC学習モデル223にて同じ問題を解かせて、判定結果を集計する(ステップS1601)。 Once a certain amount of data in the mobile MC teacher data set has been accumulated, a process is started to automatically find data that can be converted into common knowledge from among the data (step S1600). That is, the common data collection unit 214 collects data sampled from the mobile MC teacher data set 123 (X) of the mobile terminal 100 owned by USER-X, and collects data sampled from the mobile MC teacher data set 123 (X) of the mobile terminal 100 owned by USER-X to 2n (n = 1 or more) other than the mobile terminal 100 of this USER-X. The same problem is solved by the mobile lightweight MC learning model 122 (an integer of ) and the MC learning model 223 on the common server 200, and the judgment results are totaled (step S1601).

そして、共通データ収集部214は、nモデル以上の回答が一致したか否かを判定し(ステップS1602)、判定が肯定されたら(ステップS1602においてYES)、モバイル用MC教師データセット123(X)に格納したMCデータを削除し、共通教師データセット222に格上げして格納する(ステップS1603)。 Then, the common data collection unit 214 determines whether or not the answers of n or more models match (step S1602), and if the determination is affirmative (YES in step S1602), the mobile MC teacher data set 123 (X) The MC data stored in the MC data set 222 is deleted, and the MC data is upgraded and stored in the common teacher data set 222 (step S1603).

本実施例では、学習モデルの更新/再学習/保守プロセスについて一つの例を示す。共通学習モデル221の作成時の共通教師データセット222が十分なデータ量が収集できている場合、共通学習モデル221のメンテナンスは通常は必要がないが、データに時系列性(経年変化)が存在する場合、共通学習モデル221の陳腐化が発生してきて精度が落ちる可能性がある。これを防止するため、最新のデータで再学習(学習モデルの保守)するプロセスを組み込む。すなわち、日々の運用で判定した結果(学習モデルが判定した通りの結果か、ユーザが手入力で修正した結果)を共通教師データセット222に追加していく。 In this embodiment, one example of the learning model update/relearning/maintenance process will be shown. If a sufficient amount of data has been collected in the common teacher dataset 222 at the time of creating the common learning model 221, maintenance of the common learning model 221 is usually not necessary, but there is chronological nature (change over time) in the data. In this case, the common learning model 221 may become obsolete and its accuracy may decrease. To prevent this, incorporate a process to retrain (maintain the learning model) using the latest data. That is, the results determined in daily operations (results as determined by the learning model or results manually corrected by the user) are added to the common teacher data set 222.

図14に示すアプリケーションを例にとって考えると、3千人の覆面調査員(アルバイト)が外食レストランの画像とメニュー名をアップロードする業務の場合、例えば、1日当たり500人が稼働し、一人1~3件(平均して2件)のデータをアップロードすると1日当たり1,000件のデータが集まる。100日運用すると10万件のデータが蓄積されることになるが、学習モデルの生成にはCPU(GPU)やメモリ/実行時間の制限があり全データを処理できない。そこで、共通学習モデルを作る(再作成する)ためのデータ数の上限を(例えば、1万件と)設定する。 Taking the application shown in Figure 14 as an example, if 3,000 undercover investigators (part-time workers) upload images and menu names of restaurants, for example, 500 people will be working per day, and each person will have 1 to 3 If you upload 1,000 pieces of data per day (2 pieces of data on average), 1,000 pieces of data will be collected per day. After 100 days of operation, 100,000 pieces of data will be accumulated, but due to CPU (GPU) and memory/execution time limitations in generating the learning model, it will not be possible to process all the data. Therefore, an upper limit on the number of data for creating (re-creating) a common learning model is set (for example, 10,000 items).

共通学習モデル生成部212は、モバイル用軽量学習モデル(共通)121作成時の共通教師データセット222のデータ件数をn件(例えば10,000件)とすると、日々の運用で新たに追加されたデータ件数が一定数m件(例えば10%:1,000件)を超えるのを待ち(ステップS1700においてYES)、超えた時点で、n+m件の教師データで共通学習モデル221の再作成に必要な時間(t1)が、日々の運用で新たにm件のデータが蓄積される時間(t2)を超えたか否かを判定する(ステップS1701)。 If the number of data items in the common teacher dataset 222 at the time of creating the mobile lightweight learning model (common) 121 is n items (for example, 10,000 items), the common learning model generation unit 212 generates data newly added during daily operation. Wait until the number of data items exceeds a certain number m items (for example, 10%: 1,000 items) (YES in step S1700), and at the time the number of data items exceeds a certain number m items (for example, 10%: 1,000 items). It is determined whether the time (t1) exceeds the time (t2) during which m pieces of data are newly accumulated in daily operations (step S1701).

そして、判定が肯定されたら(ステップS1701においてYES)、共通学習モデル生成部212は、n+m件のオリジナルデータを間引くことで、t1<t2に収まる程度のデータ数にして、再学習プロセスを走らせる(ステップS1702)。再学習プロセスの詳細については、図18及び図19を参照して後述する。一方、判定が否定されたら(ステップS1701においてNO)、共通学習モデル生成部212は、n件のオリジナルデータを間引かず、再学習プロセスを走らせる(ステップS1703)。 If the determination is affirmative (YES in step S1701), the common learning model generation unit 212 thins out n+m pieces of original data to make the number of data such that t1<t2, and runs the relearning process. (Step S1702). Details of the relearning process will be described later with reference to FIGS. 18 and 19. On the other hand, if the determination is negative (NO in step S1701), the common learning model generation unit 212 runs the relearning process without thinning out the n pieces of original data (step S1703).

図18、19は、実施例5に係る画像判定システムSの学習モデル更新処理、すなわち再学習プロセスの例を示すフローチャートである。図18に示すフローチャートは、共通教師データセット222のカテゴリ毎の出現頻度に準拠して、再学習用教師データを用意する方式であり、図19に示すフローチャートは、共通教師データセット222のカテゴリ毎に極力一定数の再学習用教師データを用意する方式である。 18 and 19 are flowcharts illustrating an example of a learning model update process, that is, a relearning process, of the image determination system S according to the fifth embodiment. The flowchart shown in FIG. 18 is a method for preparing teacher data for relearning based on the appearance frequency of each category of the common teacher data set 222, and the flowchart shown in FIG. This method prepares as much training data for relearning as possible.

図18において、新しいデータは、出現頻度が正規分布等に従って頻度が多いものから少ないものに分散することが予測される。この頻度のまま共通教師データセット222に加えていくと、マイノリティ(出現頻度の少ない)のデータが学習に活かされなくなる。これを避けるため、出現頻度の高いラベルでは約半数、出現頻度の少ない(ロングテール)のデータはほぼ全数が教師データに加えられるように逓減しながらサンプリングしていく。 In FIG. 18, it is predicted that the appearance frequencies of new data will be distributed from those with higher frequency to those with lower frequency according to a normal distribution or the like. If the data is added to the common teacher data set 222 with this frequency, minority data (low frequency of appearance) will not be utilized for learning. To avoid this, samples are gradually reduced so that about half of the labels that appear frequently and almost all of the data that appears less frequently (long tail) are added to the training data.

まず、共通学習モデル生成部212は、日々の運用のデータが一定量(例えば1,000件)蓄積されたら、判定した結果が、共通学習モデル221が予測した結果と同じだった場合(例えば950件)、カテゴリごとに出現頻度の高い順に並べる(ステップS1800)。 First, when the common learning model generation unit 212 accumulates a certain amount of daily operation data (for example, 1,000 items), if the determined result is the same as the result predicted by the common learning model 221 (for example, 950 items) and are arranged in descending order of appearance frequency for each category (step S1800).

次に、共通学習モデル生成部212は、出現頻度の最も高いカテゴリのデータが、一定割合(例えば半数)になって、最も低いカテゴリのデータが0%になるようにサンプリングから排除するデータの割合を頻度の多い方から順に比率を逓減しながら、共通教師データセット222に組み込むサンプルデータをランダムに抽出する(例えば950件中450件に削減)(ステップS1801)。 Next, the common learning model generation unit 212 determines the percentage of data to be excluded from sampling so that the data in the category with the highest frequency of appearance becomes a certain percentage (for example, half) and the data in the category with the lowest frequency becomes 0%. Sample data to be incorporated into the common teacher data set 222 is randomly extracted while decreasing the ratio in descending order of frequency (eg, reduced to 450 out of 950) (step S1801).

さらに、共通学習モデル生成部212は、日々の運用で判定した結果が共通学習モデル221通りとは違うと判定(例えば50件)された結果は、実施例3のサンプリング回答補正方式、または実施例4のMC学習モデル補正方式で、共通教師データセット222に組み込むかどうかを判定し、その結果残ったデータ(例えば30件)は、全数共通教師データセット222に組み込むサンプルデータとして抽出する(ステップS1802)。 Further, the common learning model generation unit 212 uses the sampling response correction method of the third embodiment or the sample response correction method of the third embodiment for the results determined in daily operation that are different from the common learning model 221 (for example, 50 cases). 4, it is determined whether or not to be incorporated into the common teacher dataset 222, and the remaining data (for example, 30 items) are extracted as sample data to be incorporated into the complete common teacher dataset 222 (step S1802). ).

そして、共通学習モデル生成部212は、計算時間が許容される範囲に収まる共通教師データセット222の母数の上限をn件 (例えば10,000件)として設定し、共通データに新たに追加されるデータ(例えば450件+30件の480件)を加えると上限n件を超える場合、超える量のデータをランダムに元の共通教師データセット222から削除して、新たなデータを加え(置き換え)、再学習プロセスを回し、新たな共通学習モデル221を作成する(ステップS1803)。 Then, the common learning model generation unit 212 sets the upper limit of the population of the common teacher dataset 222 within the allowable range of calculation time as n items (for example, 10,000 items), and If adding the data (for example, 450 + 30 = 480) exceeds the upper limit n, the excess data is randomly deleted from the original common teacher dataset 222, new data is added (replaced), The relearning process is repeated to create a new common learning model 221 (step S1803).

図19において、新しいデータは、出現頻度が正規分布等に従って頻度が多いものから少ないものに分散することが予測される。一方、共通学習モデル221で使用する共通教師データセット222は、データ量が多いクラスに引きずられないよう、各クラス一定数に制限することが多い。この場合、追加するデータも一定数でカットする方式が良い。もともと少ないデータ(ロングテール)は、徐々に蓄積されるようそのまま加える。 In FIG. 19, it is predicted that the appearance frequencies of new data will be distributed from those with higher frequency to those with lower frequency according to a normal distribution or the like. On the other hand, the common teacher data set 222 used in the common learning model 221 is often limited to a certain number for each class so as not to be dragged down by classes with a large amount of data. In this case, it is better to cut the added data by a certain number. Data that is already small (long tail) is added as is so that it can be accumulated gradually.

まず、共通学習モデル生成部212は、日々の運用のデータが一定量(例えば1,000件)蓄積されたら、判定した結果が、共通学習モデル221が予測した結果と同じだった場合(例えば950件)、カテゴリごとに出現頻度の高い順に並べる(ステップS1900)。 First, when the common learning model generation unit 212 accumulates a certain amount of daily operation data (for example, 1,000 items), if the determined result is the same as the result predicted by the common learning model 221 (for example, 950 items) and are arranged in descending order of appearance frequency for each category (step S1900).

次に、共通学習モデル生成部212は、出現頻度が一定数(例えば20件)以上のカテゴリのデータは、一定数(例えば20件)をランダムに選んで、共通教師データセット222に組み込むサンプルデータを抽出する。一定数に満たない少数データ(ロングテールデータ)は、そのままサンプルデータとする(例えば950件中450件に削減)(ステップS1901)。 Next, the common learning model generation unit 212 randomly selects a certain number (for example, 20 cases) of data of categories whose appearance frequency is a certain number (for example, 20 cases) or more, and generates sample data to be incorporated into the common teacher data set 222. Extract. A small number of data (long tail data) that is less than a certain number is used as sample data (for example, reduced to 450 out of 950) (step S1901).

さらに、共通学習モデル生成部212は、日々の運用で判定した結果が、共通学習モデル221通りとは違うと判定(例えば50件)された結果は、実施例3のサンプリング回答補正方式、または実施例4のMC学習モデル補正方式で、共通教師データセット222に組み込むかどうかを判定し、その結果残ったデータ(例えば30件)は、全数共通教師データセット222に組み込むサンプルデータとして抽出する(ステップS1902)。 Furthermore, the common learning model generation unit 212 uses the sampling answer correction method of the third embodiment or the implementation Using the MC learning model correction method in Example 4, it is determined whether or not to be incorporated into the common teacher dataset 222, and the remaining data (for example, 30 items) are extracted as sample data to be incorporated into the complete common teacher dataset 222 (step S1902).

そして、共通学習モデル生成部212は、計算時間が許容される範囲に収まる共通教師データセット222の母数の上限をn件(例えば10,000件)に設定し、共通教師データセット222に新たに追加されるデータ(例えば450件+30件の480件)を加えると上限n件を超える場合、超える量のデータをランダムに元の共通教師データセット222から削除して、新たなデータを加え(置き換え)、再学習プロセスを回し、新たな共通学習モデルを作成する(ステップS1903)。 Then, the common learning model generation unit 212 sets the upper limit of the population of the common teacher data set 222 to n (for example, 10,000) within the allowable range of calculation time, and adds a new number to the common teacher data set 222. If the data added to (for example, 450 items + 30 items, 480 items) exceeds the upper limit of n items, the excess amount of data is randomly deleted from the original common teacher dataset 222, and new data is added ( (replacement), the relearning process is performed, and a new common learning model is created (step S1903).

なお、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。 Note that the configurations of the above-described embodiments are explained in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all of the configurations described. Further, a part of the configuration of each embodiment can be added to, deleted from, or replaced with other configurations.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by designing, for example, an integrated circuit. Further, the present invention can also be realized by software program codes that realize the functions of the embodiments. In this case, a storage medium on which a program code is recorded is provided to a computer, and a processor included in the computer reads the program code stored on the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the embodiments described above, and the program code itself and the storage medium storing it constitute the present invention. Examples of storage media for supplying such program codes include flexible disks, CD-ROMs, DVD-ROMs, hard disks, SSDs (Solid State Drives), optical disks, magneto-optical disks, CD-Rs, magnetic tapes, A non-volatile memory card, ROM, etc. are used.

また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラムまたはスクリプト言語で実装できる。 Further, the program code for realizing the functions described in this embodiment can be implemented in a wide range of program or script languages such as assembler, C/C++, Perl, Shell, PHP, and Java (registered trademark).

さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段またはCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 Furthermore, by distributing the software program code that realizes the functions of the embodiment via a network, it can be stored in a storage means such as a computer's hard disk or memory, or a storage medium such as a CD-RW or CD-R. Alternatively, a processor included in the computer may read and execute the program code stored in the storage means or the storage medium.

上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。 In the above-described embodiments, the control lines and information lines are those considered necessary for explanation, and not all control lines and information lines are necessarily shown in the product. All configurations may be interconnected.

S…画像判定システム、100…モバイル端末、110…制御部、111…モバイル用画像判定部、112…撮像制御部、113…データ送受信部、114…データ収集部、120…記憶部、121…モバイル用軽量学習モデル、122…モバイル用軽量MC学習モデル、123…モバイル用MC教師データセット、130…撮像部、140…入力部、150…表示部、160、230、330…通信部、200…共通サーバ、210…共通制御部、211…共通画像判定部、212…共通学習モデル生成部、213…共通データ送受信部、214…共通データ収集部、215…共通成熟度算出部、220…共通記憶部、221…共通学習モデル、222…共通教師データセット、223…MC学習モデル、224…MC教師データセット、300…専門サーバ、310…専門制御部、311…専門画像判定部、312…専門学習モデル生成部、313…専門データ送受信部、314…専門データ収集部、315・・・専門成熟度算出部、320…専門記憶部、321…専門学習モデル、322…専門教師データセット
S... Image determination system, 100... Mobile terminal, 110... Control unit, 111... Image determination unit for mobile, 112... Imaging control unit, 113... Data transmission/reception unit, 114... Data collection unit, 120... Storage unit, 121... Mobile 122...Lightweight MC learning model for mobile, 123...MC teacher data set for mobile, 130...imaging section, 140...input section, 150...display section, 160, 230, 330...communication section, 200...common Server, 210...Common control unit, 211...Common image determination unit, 212...Common learning model generation unit, 213...Common data transmission/reception unit, 214...Common data collection unit, 215...Common maturity level calculation unit, 220...Common storage unit , 221... Common learning model, 222... Common teacher data set, 223... MC learning model, 224... MC teacher data set, 300... Specialized server, 310... Specialized control unit, 311... Specialized image determination unit, 312... Specialized learning model Generation unit, 313... Specialist data transmission/reception unit, 314... Specialist data collection unit, 315... Specialist maturity calculation unit, 320... Specialist storage unit, 321... Specialist learning model, 322... Specialist teacher data set

Claims (8)

端末と、この端末と通信可能な共通サーバ及び専門サーバとを有する画像判定システムであって、
前記端末は、
被写体を撮像して画像を出力する撮像部と、
軽量学習モデルが格納された記憶部と、
前記画像に基づいて前記軽量学習モデルを用いて前記被写体の分類を判定する画像判定部と、
前記画像と前記画像判定部により判定された前記被写体の前記分類とを提示する表示部と、
前記提示された前記被写体の前記分類の修正または追加入力を受け入れる入力部と、
前記画像を前記共通サーバに送信し、前記分類の修正または追加入力を収集して前記記憶部に軽量マスカスタマイズ(以下、MCと省略する)教師データセットとして格納するとともに、前記分類の修正または追加入力を前記専門サーバに送信するデータ収集部と、
を有し、
前記共通サーバは、
共通学習モデル及び共通教師データセットが格納された共通記憶部と、
前記端末から送信された前記画像を用いて前記共通教師データセットを生成する共通データ収集部と、
前記共通教師データセットを用いて前記共通学習モデルを生成し、さらに、前記共通学習モデルを軽量化して前記軽量学習モデルを生成し、この軽量学習モデルを前記端末に送信する共通学習モデル生成部と
を有し、
前記専門サーバは、
専門学習モデル及び専門教師データセットが格納された専門記憶部と、
前記端末から送信された前記分類の修正または追加入力を用いて前記専門教師データセットを生成する専門データ収集部と、
前記専門教師データセットを用いて前記専門学習モデルを生成する専門学習モデル生成部と、
前記画像判定部による判定が困難な場合、前記画像に基づいて前記専門学習モデルを用いて前記被写体を判定する専門画像判定部と
を有することを特徴とする画像判定システム。
An image determination system having a terminal, a common server and a specialized server that can communicate with the terminal,
The terminal is
an imaging unit that images a subject and outputs an image;
a storage unit storing a lightweight learning model;
an image determination unit that determines the classification of the subject using the lightweight learning model based on the image;
a display unit that presents the image and the classification of the subject determined by the image determination unit;
an input unit that accepts correction or additional input of the classification of the presented subject;
Sending the image to the common server, collecting corrections or additional inputs to the classification and storing it in the storage unit as a lightweight mass customization (hereinafter abbreviated as MC) teacher data set, and correcting or adding the classification. a data collection unit that sends input to the specialized server;
has
The common server is
a common storage unit storing a common learning model and a common teacher dataset;
a common data collection unit that generates the common teacher data set using the image transmitted from the terminal;
a common learning model generation unit that generates the common learning model using the common teacher data set, further generates the lightweight learning model by reducing the weight of the common learning model, and transmits the lightweight learning model to the terminal; has
The specialized server is
a specialized storage unit in which a specialized learning model and a specialized teacher data set are stored;
a specialized data collection unit that generates the specialized teacher data set using the modification of the classification or additional input sent from the terminal;
a specialized learning model generation unit that generates the specialized learning model using the specialized teacher data set;
An image determination system comprising: a specialized image determination section that determines the subject using the specialized learning model based on the image when the image determination section has difficulty in determining the subject.
前記データ収集部は前記分類の修正または追加入力を前記共通サーバに送信し、
前記共通データ収集部は、前記端末から送信された前記分類の修正または追加入力を用いてMC教師データセットを生成し、
前記共通学習モデル生成部は、前記MC教師データセットを用いてMC学習モデルを生成し、さらに、前記MC学習モデルを軽量化して軽量MC学習モデルを生成し、この軽量MC学習モデルを前記端末に送信し、
前記画像判定部は前記軽量学習モデルと前記軽量MC学習モデルとを用いて前記被写体を判定する
ことを特徴とする請求項1に記載の画像判定システム。
the data collection unit transmits corrections or additional inputs to the classification to the common server;
The common data collection unit generates an MC teacher data set using the correction or additional input of the classification transmitted from the terminal,
The common learning model generation unit generates an MC learning model using the MC teacher data set, further reduces the weight of the MC learning model to generate a lightweight MC learning model, and transmits this lightweight MC learning model to the terminal. send,
The image determination system according to claim 1, wherein the image determination unit determines the subject using the lightweight learning model and the lightweight MC learning model.
前記共通サーバは、
前記端末から送信された前記画像に基づいて前記被写体の分類を判定する共通画像判定部と、
前記分類毎の前記共通学習モデルの量及び類似性を示す成熟度を算出する成熟度算出部と
を有し、
前記表示部は、前記画像と、前記共通画像判定部により判定された前記被写体の前記分類と、前記成熟度算出部により算出された成熟度とを提示する
ことを特徴とする請求項1に記載の画像判定システム。
The common server is
a common image determination unit that determines the classification of the subject based on the image transmitted from the terminal;
a maturity level calculation unit that calculates a maturity level indicating the amount and similarity of the common learning model for each of the classifications;
The display unit presents the image, the classification of the subject determined by the common image determination unit, and the maturity level calculated by the maturity level calculation unit. image judgment system.
前記端末は複数存在し、
前記MC教師データセット、前記MC学習モデル及び前記軽量MC学習モデルは前記端末毎に作成され、
前記共通学習モデル生成部は、特定の前記端末から前記分類の追加入力が送信された前記画像を少なくとも一つの他の前記端末に送信して前記分類の修正または追加入力を受け付け、前記特定の端末から送信された前記分類の修正または追加入力に基づいて前記共通教師データセットを修正するか否かを判定する
ことを特徴とする請求項2に記載の画像判定システム。
There are multiple terminals,
The MC teacher data set, the MC learning model, and the lightweight MC learning model are created for each terminal,
The common learning model generation unit transmits the image to which the additional input of the classification has been transmitted from the specific terminal to at least one other terminal, receives correction or additional input of the classification, and 3. The image determination system according to claim 2, wherein the image determination system determines whether or not to modify the common teacher data set based on a modification of the classification or an additional input transmitted from the system.
前記端末は複数存在し、
前記MC教師データセット、前記MC学習モデル及び前記軽量MC学習モデルは前記端末毎に作成され、
前記共通学習モデル生成部は、特定の前記端末から前記分類の追加入力が送信された前記画像を少なくとも一つの他の前記端末毎の前記MC学習モデルを用いて判定し、この判定結果に基づいて前記共通教師データセットを修正するか否かを判定する
ことを特徴とする請求項2に記載の画像判定システム。
There are multiple terminals,
The MC teacher data set, the MC learning model, and the lightweight MC learning model are created for each terminal,
The common learning model generation unit determines the image to which the additional input of the classification has been transmitted from the specific terminal using the MC learning model for each of at least one other terminal, and based on the determination result. The image determination system according to claim 2, further comprising determining whether or not to modify the common teacher data set.
前記共通学習モデル生成部は、前記端末から送信された前記画像に基づいて前記共通教師データセットに追加したデータの件数が所定数を超えたら前記共通学習モデルを再作成し、この際、前記共通学習モデルの再作成に必要な時間が前記共通教師データセットに前記データを前記所定数追加する時間を超えた場合、前記共通学習モデルの再作成に必要な時間が前記共通教師データセットに前記データを前記所定数追加する時間を超えないように、前記共通学習モデルの作成の元となる前記共通教師データセットの前記データの件数を調整し、前記共通学習モデルの再作成に必要な時間が前記共通教師データセットに前記データを前記所定数追加する時間を超えない場合、前記共通教師データセットの前記データの件数を適度に水増しすることを特徴とする請求項1に記載の画像判定システム。 The common learning model generation unit recreates the common learning model when the number of data added to the common teacher data set based on the image transmitted from the terminal exceeds a predetermined number; If the time required to recreate the learning model exceeds the time required to add the predetermined number of data to the common teacher dataset, the time required to recreate the common learning model is to add the data to the common teacher dataset. The number of data items in the common teacher data set, which is the source for creating the common learning model, is adjusted so that the time required to re-create the common learning model does not exceed the predetermined number. 2. The image determination system according to claim 1, wherein if the time for adding the predetermined number of data to the common teacher data set is not exceeded, the number of data items in the common teacher data set is appropriately increased. 前記共通学習モデル生成部は、前記端末から送信された前記画像に基づいて前記共通教師データセットに追加した前記分類のデータのうち、前記共通学習モデルによる予測と同じ結果であった前記分類のデータを出現頻度の高い順に並べ、出現頻度の最も高い前記分類のデータを所定割合抽出し、出現頻度の最も低い前記分類のデータを抽出しないように、出現頻度の高い前記分類のデータから低い前記分類のデータの抽出割合を逓減して抽出して前記共通学習モデルの再作成を行うことを特徴とする請求項1に記載の画像判定システム。 The common learning model generation unit generates data of the classification that has the same result as predicted by the common learning model, among the data of the classification added to the common teacher data set based on the image transmitted from the terminal. are arranged in descending order of frequency of appearance, a predetermined proportion of data of the classification with the highest frequency of appearance is extracted, and the data of the classification with the lowest frequency of appearance is sorted from the data of the classification with the highest frequency of appearance so as not to extract the data of the classification with the lowest frequency of appearance. 2. The image determination system according to claim 1, wherein the common learning model is re-created by extracting the data by gradually decreasing the extraction ratio of the data. 前記共通学習モデル生成部は、前記端末から送信された前記画像に基づいて前記共通教師データセットに追加した前記分類のデータのうち、前記共通学習モデルによる予測と同じ結果であった前記分類のデータを出現頻度の高い順に並べ、出現頻度が一定数以上の前記分類のデータは前記一定数だけランダムに抽出し、出現頻度が一定数未満の前記分類のデータはそのまま抽出して前記共通学習モデルの再作成を行うことを特徴とする請求項1に記載の画像判定システム。 The common learning model generation unit generates data of the classification that has the same result as predicted by the common learning model, among the data of the classification added to the common teacher data set based on the image transmitted from the terminal. are arranged in descending order of appearance frequency, data of the above classifications whose appearance frequency is above a certain number are randomly extracted by the above certain number, and data of the above classifications whose appearance frequency is less than a certain number are extracted as is and used in the common learning model. The image determination system according to claim 1, wherein the image determination system performs re-creation.
JP2020006190A 2020-01-17 2020-01-17 Image judgment system Active JP7357551B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020006190A JP7357551B2 (en) 2020-01-17 2020-01-17 Image judgment system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020006190A JP7357551B2 (en) 2020-01-17 2020-01-17 Image judgment system

Publications (2)

Publication Number Publication Date
JP2021114097A JP2021114097A (en) 2021-08-05
JP7357551B2 true JP7357551B2 (en) 2023-10-06

Family

ID=77077026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020006190A Active JP7357551B2 (en) 2020-01-17 2020-01-17 Image judgment system

Country Status (1)

Country Link
JP (1) JP7357551B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4216114A4 (en) 2021-12-07 2024-02-14 Rakuten Group, Inc. Information processing device, information processing method, and program
WO2024009632A1 (en) * 2022-07-07 2024-01-11 コニカミノルタ株式会社 Model generation apparatus, model generation method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019109924A (en) 2019-02-27 2019-07-04 キヤノンマーケティングジャパン株式会社 Information processing system, information processing method, and program
JP2019117437A (en) 2017-12-26 2019-07-18 大日本印刷株式会社 Article identification apparatus, article identification method and program
WO2019150813A1 (en) 2018-01-30 2019-08-08 富士フイルム株式会社 Data processing device and method, recognition device, learning data storage device, machine learning device, and program
JP2019192082A (en) 2018-04-27 2019-10-31 Awl株式会社 Server for learning, image collection assisting system for insufficient learning, and image estimation program for insufficient learning

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019117437A (en) 2017-12-26 2019-07-18 大日本印刷株式会社 Article identification apparatus, article identification method and program
WO2019150813A1 (en) 2018-01-30 2019-08-08 富士フイルム株式会社 Data processing device and method, recognition device, learning data storage device, machine learning device, and program
JP2019192082A (en) 2018-04-27 2019-10-31 Awl株式会社 Server for learning, image collection assisting system for insufficient learning, and image estimation program for insufficient learning
JP2019109924A (en) 2019-02-27 2019-07-04 キヤノンマーケティングジャパン株式会社 Information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP2021114097A (en) 2021-08-05

Similar Documents

Publication Publication Date Title
US11500818B2 (en) Method and system for large scale data curation
CN111444966B (en) Media information classification method and device
CN113614756A (en) System and method for forecasting alerts with programmable human-machine hybrid ensemble learning
EP2885755B1 (en) Agent system, agent control method and agent control program with ability of natural conversation with users
JP7357551B2 (en) Image judgment system
CN111783873B (en) User portrait method and device based on increment naive Bayes model
US11710065B2 (en) Utilizing a bayesian approach and multi-armed bandit algorithms to improve distribution timing of electronic communications
Gonzalez Psychometric and machine learning approaches to reduce the length of scales
US7240039B2 (en) System and method for combining valuations of multiple evaluators
CN113360777A (en) Content recommendation model training method, content recommendation method and related equipment
JP2021060982A (en) Data analysis system diagnostic method, data analysis system optimization method, device, and medium
JP7318646B2 (en) Information processing device, information processing method, and program
US11972443B2 (en) Prediction model preparation and use for socioeconomic data and missing value prediction
JP2022076278A (en) Model learning method, model learning system, server device, and computer program
Muller et al. Implementation of machine learning in evidence syntheses in the Cluster for Reviews and Health Technology Assessments: Final report 2020-2021
CN116662527A (en) Method for generating learning resources and related products
JP7398944B2 (en) Electronic album generation device, electronic album generation method and program
WO2017174789A1 (en) A system and method for generating one or more statements
CN113870998A (en) Interrogation method, device, electronic equipment and storage medium
JP7043243B2 (en) Classification device, classification method, and program
CN112669003B (en) Business coaching method and device based on artificial intelligence and computer equipment
EP4123518A1 (en) Information processing device, information processing system, information processing method and program
WO2022137279A1 (en) Medical facility matching system, medical facility matching method, and recording medium
CN113658713B (en) Infection tendency prediction method, device, equipment and storage medium
JPH11353386A (en) Nursing care information providing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230926

R150 Certificate of patent or registration of utility model

Ref document number: 7357551

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150