JP7357551B2 - Image judgment system - Google Patents
Image judgment system Download PDFInfo
- Publication number
- JP7357551B2 JP7357551B2 JP2020006190A JP2020006190A JP7357551B2 JP 7357551 B2 JP7357551 B2 JP 7357551B2 JP 2020006190 A JP2020006190 A JP 2020006190A JP 2020006190 A JP2020006190 A JP 2020006190A JP 7357551 B2 JP7357551 B2 JP 7357551B2
- Authority
- JP
- Japan
- Prior art keywords
- common
- learning model
- image
- data
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013480 data collection Methods 0.000 claims description 58
- 238000004364 calculation method Methods 0.000 claims description 22
- 238000012937 correction Methods 0.000 claims description 22
- 238000003384 imaging method Methods 0.000 claims description 14
- 230000003247 decreasing effect Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 77
- 230000008569 process Effects 0.000 description 41
- 230000006870 function Effects 0.000 description 29
- 238000012545 processing Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 15
- 238000012549 training Methods 0.000 description 14
- 238000013473 artificial intelligence Methods 0.000 description 9
- 230000007246 mechanism Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000005070 sampling Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 235000015429 Mirabilis expansa Nutrition 0.000 description 2
- 244000294411 Mirabilis expansa Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004821 distillation Methods 0.000 description 2
- 235000013536 miso Nutrition 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 235000019640 taste Nutrition 0.000 description 2
- 235000008314 Echinocereus dasyacanthus Nutrition 0.000 description 1
- 240000005595 Echinocereus dasyacanthus Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241000981595 Zoysia japonica Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007865 diluting Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 235000015277 pork Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
本発明は、画像判定システムに関する。 The present invention relates to an image determination system.
画像判定システムが正しい判定をしなかった場合、逐次再学習することで学習モデルを自己改善するシステムが、例えば、特許文献1に開示されている。また、ユーザ毎の趣味・嗜好を特徴量化して、機械学習することでユーザに最適なコンテンツを提示するシステムが、例えば、特許文献2に開示されている。
For example,
特許文献1の画像判定システムは、画像が表す種別ごとの確からしさを推定する学習モデルを評価し、精度が基準を満たしていない場合、正解ラベルを付与し、学習モデルの再学習を行いより精度の高いモデルに改善していく。
The image judgment system disclosed in
また、特許文献2では、ユーザ毎の画像に対する反応、すなわちコメントしたり、「いいね」を表明したり、あるいは無視(スルー)したり、といった行動の結果を特徴量化し、それを線形回帰、ロジスティック回帰、ブースティング・ツリー、または加重決定木などの機械学習方式で予測することで、近しいユーザネットワークグループを形成したり、当該ユーザの趣味・嗜好にあった画像をカスタマイズして提示する。
In addition, in
しかしながら、上述した特許文献1、2に開示された技術では、ユーザ毎に画像判定結果をマスカスタマイズ(以下、MCと省略する)する仕組みや、精度向上のため、画像判定機構を多段階化し、必要に応じてより精度や専門性の高い判定機構にエスカレーションすることで、より正確な判定を行う仕掛けは考慮されていない。また、ユーザへの判定結果の提示方法に、判定機構の学習の成熟度を付加することで、ユーザが総合的に判断できる仕掛けについても考慮されていない。
However, the techniques disclosed in
本発明は上記の課題に鑑みてなされたもので、ユーザ毎に最適な画像判定を行うことが可能な画像判定システムを提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image determination system that can perform optimal image determination for each user.
上記課題を解決すべく、本発明の一つの観点に従う画像判定システムは、端末と、この端末と通信可能な共通サーバ及び専門サーバとを有する。
端末は、被写体を撮像して画像を出力する撮像部と、軽量学習モデルが格納された記憶部と、画像に基づいて軽量学習モデルを用いて被写体の分類を判定する画像判定部と、画像と画像判定部により判定された被写体の分類とを提示する表示部と、提示された被写体の分類の修正または追加入力を受け入れる入力部と、画像を共通サーバに送信し、分類の修正または追加入力を収集して記憶部に軽量MC教師データセットとして格納するとともに、分類の修正または追加入力を専門サーバに送信するデータ収集部とを有する。
共通サーバは、共通学習モデル及び共通教師データセットが格納された共通記憶部と、端末から送信された画像を用いて共通教師データセットを生成する共通データ収集部と、共通教師データセットを用いて共通学習モデルを生成し、さらに、共通学習モデルを軽量化して軽量学習モデルを生成し、この軽量学習モデルを端末に送信する共通学習モデル生成部とを有する。
専門サーバは、専門学習モデル及び専門教師データセットが格納された専門記憶部と、端末から送信された分類の修正または追加入力を用いて専門教師データセットを生成する専門データ収集部と、専門教師データセットを用いて専門学習モデルを生成する専門学習モデル生成部と、画像判定部による判定が困難な場合、画像に基づいて専門学習モデルを用いて被写体を判定する専門画像判定部とを有する。
In order to solve the above problems, an image determination system according to one aspect of the present invention includes a terminal, and a common server and a specialized server that can communicate with the terminal.
The terminal includes an imaging unit that captures an image of a subject and outputs an image, a storage unit that stores a lightweight learning model, an image judgment unit that uses the lightweight learning model to determine the classification of the subject based on the image, and an image processing unit that outputs an image. a display unit that presents the classification of the subject determined by the image determination unit; an input unit that accepts corrections or additional input to the presented classification of the subject; It has a data collection unit that collects and stores it in a storage unit as a lightweight MC teacher data set, and also sends classification corrections or additional inputs to a specialized server.
The common server includes a common storage unit that stores a common learning model and a common teacher data set, a common data collection unit that generates a common teacher data set using images sent from a terminal, and a common data collection unit that uses the common teacher data set. The common learning model generation unit generates a common learning model, further generates a lightweight learning model by reducing the weight of the common learning model, and transmits this lightweight learning model to a terminal.
The specialized server includes a specialized storage section in which specialized learning models and specialized teacher datasets are stored, a specialized data collection section that generates specialized teacher datasets using classification corrections or additional inputs sent from the terminal, and a specialized teacher dataset. It has a specialized learning model generating section that generates a specialized learning model using a data set, and a specialized image determining section that determines a subject using a specialized learning model based on the image when it is difficult to make a determination by the image determining section.
本発明によれば、ユーザ毎に最適な画像判定を行うことが可能な画像判定システムを実現することができる。 According to the present invention, it is possible to realize an image determination system that can perform optimal image determination for each user.
以下、本発明の実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 Embodiments of the present invention will be described below with reference to the drawings. The embodiments described below do not limit the claimed invention, and all of the elements and combinations thereof described in the embodiments are not necessarily essential to the solution of the invention. Not exclusively.
なお、実施例を説明する図において、同一の機能を有する箇所には同一の符号を付し、その繰り返しの説明は省略する。 In the drawings explaining the embodiments, parts having the same functions are denoted by the same reference numerals, and repeated explanations thereof will be omitted.
また、以下の説明では、情報の一例として「xxxデータ」といった表現を用いる場合があるが、情報のデータ構造はどのようなものでもよい。すなわち、情報がデータ構造に依存しないことを示すために、「xxxデータ」を「xxxテーブル」と言うことができる。さらに、「xxxデータ」を単に「xxx」と言うこともある。そして、以下の説明において、各情報の構成は一例であり、情報を分割して保持したり、結合して保持したりしても良い。 Further, in the following description, an expression such as "xxx data" may be used as an example of information, but the information may have any data structure. That is, "xxx data" can be referred to as "xxx table" to indicate that the information is independent of data structure. Furthermore, "xxx data" is sometimes simply referred to as "xxx". In the following description, the configuration of each piece of information is merely an example, and the information may be held separately or may be combined and held.
図1は、実施例1に係る画像判定システムの機能構成を示す機能ブロック図である。 FIG. 1 is a functional block diagram showing the functional configuration of an image determination system according to a first embodiment.
本実施例の画像判定システムSは、複数のモバイル端末100、共通サーバ200及び単一のまたは複数の専門サーバ300を有する。モバイル端末100は本実施例の画像判定システムSの複数のユーザ(図示例ではUSER-1~USER-X)により携帯され、使用される。以下の説明では、USER-Xのモバイル端末100について主に説明する。
The image determination system S of this embodiment includes a plurality of
モバイル端末100と共通サーバ200とは、互いの通信部160、230により相互に情報の送受信が可能になっている。同様に、共通サーバ200と専門サーバ300とは、互いの通信部230、330により相互に情報の送受信が可能になっている。モバイル端末100と共通サーバ200との間の通信手段に特段の限定はないが、好ましくは、一部が無線通信手段により構成される。また、通信手段はいわゆるLAN(Local Area Network)またはインターネットや移動体通信網に代表されるWAN(Wide Area Network)の少なくとも一方または両方でありうる。
The
モバイル端末100、共通サーバ200及び専門サーバ300は、いずれも各種情報処理が可能な装置、一例としてコンピュータ等の情報処理装置である。情報処理装置は、少なくとも演算素子、記憶媒体を有する。特に、モバイル端末100は、ユーザが携帯可能なスマートフォン、タブレット端末等が好ましい。
The
演算素子は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field-Programmable Gate Array)等である。記憶媒体は、例えばHDD(Hard Disk Drive)などの磁気記憶媒体、RAM(Random Access Memory)、ROM(Read Only Memory)、SSD(Solid State Drive)などの半導体記憶媒体等を有する。また、DVD(Digital Versatile Disk)等の光ディスク及び光ディスクドライブの組み合わせも記憶媒体として用いられる。その他、磁気テープメディアなどの公知の記憶媒体も記憶媒体として用いられる。 The arithmetic element is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an FPGA (Field-Programmable Gate Array). The storage medium includes, for example, a magnetic storage medium such as an HDD (Hard Disk Drive), a semiconductor storage medium such as a RAM (Random Access Memory), a ROM (Read Only Memory), or an SSD (Solid State Drive). Furthermore, a combination of an optical disk such as a DVD (Digital Versatile Disk) and an optical disk drive is also used as a storage medium. In addition, known storage media such as magnetic tape media can also be used as storage media.
記憶媒体には、ファームウェアなどのプログラムが格納されている。モバイル端末100、共通サーバ200及び専門サーバ300の動作開始時(例えば電源投入時)にファームウェア等のプログラムをこの記憶媒体から読み出して実行し、これらモバイル端末100等の全体制御を行う。また、記憶媒体には、プログラム以外にも、モバイル端末100等の動作に必要なデータ等が格納されている。
Programs such as firmware are stored in the storage medium. When the
なお、本実施例の共通サーバ200、専門サーバ300は、それぞれ、情報処理装置が通信ネットワークを介して通信可能に構成された、いわゆるクラウドにより構成されてもよい。特に、専門サーバは、自社が用意したサーバに限らず、公開されたネットワークAI(人工知能機能の提供を目的にAPI(アプリケーションプログラムインターフェース)を公開して他者に利活用を許可している)サーバを含む。
Note that the
モバイル端末100は、制御部110、記憶部120、撮像部130、入力部140、表示部150及び通信部160を有する。
制御部110は主に演算素子から構成され、モバイル端末100全体の制御を行う。また、記憶部120に格納された図略のファームウェアがモバイル端末100の起動時に実行されることで、各種機能部としての機能を実行する。このような機能部として、本実施例の制御部110は、モバイル用画像判定部111、撮像制御部112、データ送受信部113及びデータ収集部114を有する。
The control unit 110 is mainly composed of arithmetic elements and controls the entire
モバイル用画像判定部111は、後述する記憶部120に格納されたモバイル用軽量学習モデル121及びモバイル用軽量MC学習モデル122に基づいて、人工知能(含む機械学習、深層学習)手法に基づいて、撮像部130により撮像された被写体の判定を行う。モバイル用画像判定部111により行われる被写体判定手法については周知のものであるので、ここでの詳細な説明は省略する。
Based on the mobile
撮像制御部112は、撮像部130の制御を行う。データ送受信部113は、通信部160を介したデータの送受信を制御する。
The
データ収集部114は、撮像部130が出力する画像を共通サーバ200に送信する。また、データ収集部114は、入力部140が受け入れた被写体の分類候補または、その修正あるいは追加入力情報を画像情報にラベルとして付加し、記憶部120にモバイル用MC教師データセット123として格納・蓄積する。
The
記憶部120は主に記憶媒体から構成され、上述したファームウェア等のプログラム以外に、モバイル端末100の動作に必要なデータ等が一時的または定常的に格納されている。
The
記憶部120には、モバイル用軽量学習モデル121、モバイル用軽量MC学習モデル122及びモバイル用MC教師データセット123が格納されている。これらモバイル用軽量学習モデル121等は、人工知能手法による被写体の判定に用いられて好適なデータ構造を有する。データ構造は周知のものであるので、ここでの説明は省略する。
The
撮像部130は、CMOS等の撮像素子によりモバイル端末100の周囲にある被写体を撮像し、被写体を含む画像として出力する。入力部140はタッチパネル等を有し、ユーザからの各種操作入力を受け入れる。表示部150は液晶ディスプレイ等を有し、制御部110からの指令に基づいて表示面に表示画面を表示する。通信部160は共通サーバ200及び専門サーバ300との間での各種データの送受信を制御する。
The
次に、共通サーバ200は、共通制御部210、共通記憶部220及び通信部230を有する。
Next, the
共通制御部210は主に演算素子から構成され、共通サーバ200全体の制御を行う。また、共通記憶部220に格納された図略のファームウェアが共通サーバ200の起動時に実行されることで、各種機能部としての機能を実行する。このような機能部として、本実施例の共通制御部210は、共通画像判定部211、共通学習モデル生成部212、共通データ送受信部213及び共通データ収集部214を有する。
The
共通画像判定部211は、モバイル端末100から送信された画像に基づいて被写体の分類を判定する。共通学習モデル生成部212は、共通記憶部220に格納されている共通教師データセット222を用いて共通学習モデル221を生成し、さらに、共通学習モデル221を軽量化してモバイル用軽量学習モデル121を生成し、このモバイル用軽量学習モデル121をモバイル端末100に送信する。
The common
また、共通学習モデル生成部212は、共通記憶部220に格納されたUSER-X用のMC教師データセット224(X)単独または、共通教師データセット222と合体したデータセットを用いてMC学習モデル223(X)を生成し、さらに、MC学習モデル223(X)を軽量化してモバイル用軽量MC学習モデル122(X)を生成し、このモバイル用軽量MC学習モデル122(X)をモバイル端末100に送信する。
Further, the common learning
これら共通学習モデル221等の生成手法については周知のものであるので、共通学習モデル221を軽量化してモバイル用軽量学習モデル121を生成する手法(詳細は後述)以外の説明は省略する。
Since the methods of generating the
共通データ送受信部213は、通信部230を介したデータの送受信を制御する。
The common data transmission/
共通データ収集部214は、モバイル端末100から送信された画像と、入力部140が受け入れた被写体の分類候補を画像情報にラベルとして付加し、共通教師データセット222に追加・蓄積する。また、共通データ収集部214は、USER-Xが表示部150に表示された被写体の分類候補を受け入れなかった場合は、USER-Xの修正あるいは追加入力情報を画像情報にラベルとして付加し、モバイル端末100の記憶部120にモバイル用MC教師データセット123に追加・蓄積する。その際、蓄積されたデータ件数が、N件を超えた場合、モバイル端末100は、共通サーバ200にモバイル用MC教師データセット123をまとめて送信し、MC教師データセット224(X)として追加・蓄積する。
The common
共通記憶部220は主に記憶媒体から構成され、上述したファームウェア等のプログラム以外に、共通サーバ200の動作に必要なデータ等が一時的または定常的に格納されている。
The common storage unit 220 is mainly composed of a storage medium, and in addition to programs such as the firmware described above, data necessary for the operation of the
共通記憶部220には、共通学習モデル221、共通教師データセット222、MC学習モデル223及びMC教師データセット224が格納されている。これら共通学習モデル221等は、人工知能手法による被写体の判定に用いられて好適なデータ構造を有する。データ構造は周知のものであるので、ここでの説明は省略する。
The common storage unit 220 stores a
通信部230はモバイル端末100及び専門サーバ300との間での各種データの送受信を制御する。
The
次に、専門サーバ300は、専門制御部310、専門記憶部320及び通信部330を有する。
Next, the
専門制御部310は主に演算素子から構成され、専門サーバ300全体の制御を行う。また、専門記憶部320に格納された図略のファームウェアが専門サーバ300の起動時に実行されることで、各種機能部としての機能を実行する。このような機能部として、本実施例の専門制御部310は、専門画像判定部311、専門学習モデル生成部312、専門データ送受信部313及び専門データ収集部314を有する。
The
専門画像判定部311は、モバイル端末100のモバイル用画像判定部111による判定や、共通サーバ200の共通画像判定部211による判定より、詳細な専門的判定が求められた場合、モバイル端末100から送信された画像に基づいて専門記憶部320に格納された専門学習モデル321を用いて被写体を判定する。
The specialized
専門学習モデル生成部312は、専門記憶部320に格納された専門教師データセット322を用いて専門学習モデル321を生成する。専門学習モデル321等の生成手法については周知のものであるので、ここでの説明は省略する。
The specialized learning
専門データ送受信部313は、通信部330を介したデータの送受信を制御する。
The specialized data transmission/
専門データ収集部314は、モバイル端末100から送信された被写体の分類の修正または追加入力を用いて専門教師データセット322に追加・蓄積する。
The specialized
通信部330はモバイル端末100及び共通サーバ200との間での各種データの送受信を制御する。
The
なお、図1に示す各機能実行部及びデータの詳細については後述する。 Note that details of each function execution unit and data shown in FIG. 1 will be described later.
次に、図2~図7Dを参照して、本実施例の画像判定システムSによる画像判定動作について説明する。まず、図2は、実施例1に係る画像判定システムSの初期学習モデルとモバイル用軽量MC学習モデルの生成処理の一例を示すフローチャートである。 Next, the image determination operation by the image determination system S of this embodiment will be described with reference to FIGS. 2 to 7D. First, FIG. 2 is a flowchart illustrating an example of a process for generating an initial learning model and a mobile lightweight MC learning model of the image determination system S according to the first embodiment.
複数のユーザが、初期学習のためにモバイル端末100の撮像部130を用いて学習モデル構築用の被写体を撮像して画像を出力し、各ユーザに分類カテゴリ情報を入力させてラベルとし、モバイル端末100のデータ送受信部113は、撮像部130から出力された画像に当該ラベルを付加して共通サーバ200に送信する。共通サーバ200の共通データ収集部214は、モバイル端末100から送信された画像とラベルのセットを収集し、共通教師データセット222として追加、蓄積する(ステップS200)。生成された共通教師データセット222は共通記憶部220に格納される。
For initial learning, a plurality of users use the
モバイル端末によるデータ収集で十分なデータが集まらない場合または、全くデータの収集ができない場合は、別の手段でデータを収集する。例えば、システム開発者が独自に人海戦術で学習用データを撮影して集めたり、動画像から切り出したり、インターネット上に複数存在している画像コンテンツをボットなどの手段で機械的に収集し、アノテーションツール等を駆使して教師用の画像の切り出しやラベルづけを行い、共通教師データセット222として追加、蓄積する(ステップS200)。 If sufficient data cannot be collected by collecting data using a mobile terminal, or if no data can be collected at all, collect data by other means. For example, a system developer may independently photograph and collect learning data using human tactics, cut out video images, or mechanically collect multiple image contents on the Internet using bots or other means. Using an annotation tool or the like, images for teachers are cut out and labeled, and added and stored as a common teacher data set 222 (step S200).
共通サーバ200の共通学習モデル生成部212は、共通教師データセット222を用いて共通学習モデル221を生成する(ステップS201)。生成された共通学習モデル221も共通記憶部220に格納される。
The common learning
次いで、共通学習モデル生成部212は、生成した共通学習モデル221を軽量化してモバイル用軽量学習モデル121を生成する(ステップS202)。生成したモバイル用軽量学習モデル121は共通データ送受信部213によりモバイル端末100に送信され、モバイル端末100のデータ送受信部113はモバイル用軽量学習モデル121を記憶部120に格納する。
Next, the common learning
学習モデルの軽量化の手法としては、蒸留(Distillation)、枝刈り(Pruning)、量子化(Quantize)などが知られている。蒸留とは、深く、何層にも広がったニューラルネットワークで十分なデータを使って学習したモデルを教師モデルとして、その出力(最終/中間)結果を正解データとして生徒モデルを学習させてより浅いノード数の少ない計量モデルでも高い精度が得られるようにしたものである。また、枝刈りとは、ニューラルネットの関係の薄い部分を0にしてネットを断ち切ることで階層を浅く/希釈することで、必要な計算量、メモリ量の節約をするものである。量子化とは、学習済みネットワークの浮動小数型の重みを、±1のどちらかに寄せて計算が簡単にできるようにしたものである。 Distillation, pruning, quantization, etc. are known methods for reducing the weight of learning models. Distillation is a deep, multi-layered neural network that uses a model trained using sufficient data as a teacher model, and its output (final/intermediate) results as ground truth data to train a student model and create shallower nodes. This allows high accuracy to be obtained even with a small number of metrological models. Furthermore, pruning is a method of cutting off the network by setting weakly related parts of the neural network to 0, thereby making the hierarchy shallower/diluting, thereby saving the required calculation amount and memory amount. Quantization is the process of shifting the floating point weights of a trained network to either ±1 to make calculations easier.
このような既知の軽量化手法により共通学習モデル221を軽量化してモバイル用軽量学習モデル121を生成し、このモバイル用軽量学習モデル121を用いてモバイル端末100において被写体の判定を行うことで、処理能力やメモリに制限のあるモバイル端末100によっても被写体の判定処理を行うことができる。
By reducing the weight of the
次に、ステップS200で収集した教師データセットのラベルを分類カテゴリ別に整理し、カテゴリに階層構造を見いだせる場合であって、標準的な共通カテゴリより詳細なサブカテゴリに分類されるような教師データセットの場合は、共通教師データセットから削除し、専門サーバ300の専門データ収集部314に送って、専門教師データセット322に追加・蓄積する(ステップS203)。生成した専門教師データセット322は専門記憶部320に格納される。
Next, the labels of the teacher data set collected in step S200 are organized by classification category, and if a hierarchical structure can be found in the categories, the teacher data set is classified into more detailed subcategories than standard common categories. If so, it is deleted from the common teacher data set, sent to the specialized
専門サーバ300の専門学習モデル生成部312は、専門教師データセット322に基づいて専門学習モデル321を生成する(ステップS204)。生成した専門学習モデル321も専門記憶部320に格納される。
The specialized learning
一方、USER-Xが、表示部150に表示された被写体の分類候補を受け入れなかった場合は、USER-Xの修正あるいは追加入力情報を画像情報にラベルとして付加し、モバイル端末100の記憶部120のモバイル用MC教師データセット123に追加・蓄積する(ステップS205)。その際、蓄積されたデータ件数が、N(Nは自然数)件を超えた場合(ステップS206においてYES)、モバイル端末100は、共通サーバ200にモバイル用MC教師データセット123をまとめて送信し、MC教師データセット
224(X)として追加・蓄積する(ステップS207)。生成したMC教師データセット224は共通記憶部220に格納される。
On the other hand, if USER-X does not accept the subject classification candidate displayed on the
共通サーバ200の共通学習モデル生成部212は、USER-X用のMC教師データセット224(X)単独または、共通教師データセット222と合体したデータセットを用いてMC学習モデル223(X)を生成するとともに、このMC学習モデル223(X)を軽量化してモバイル用軽量MC学習モデル122を生成し、このモバイル用軽量MC学習モデル122をUSER-Xのモバイル端末100に送信する(ステップS208)。ステップS108の詳細については図3及び図4を参照して後に詳述する。
The common learning
以降、モバイル端末100のモバイル用画像判定部111は、モバイル用軽量学習モデル121とモバイル用軽量MC学習モデル122とを用いて被写体の判定を行う(ステップS209)。
Thereafter, the mobile
従って、被写体の詳細な分類の判定を必要とするユーザについては、MCをしたモバイル用軽量MC学習モデル122も用いて被写体の判定を行うことにより、ユーザ毎にカスタマイズした判定処理を行うことができる。
Therefore, for users who require a detailed classification judgment of a subject, by also using the mobile lightweight
図3は、実施例1に係る画像判定システムSの軽量MC学習モデルの生成処理の一例を示すフローチャートである。図3に示すフローチャートは、図2に示すフローチャートのステップS208の詳細を示すものである。 FIG. 3 is a flowchart illustrating an example of the lightweight MC learning model generation process of the image determination system S according to the first embodiment. The flowchart shown in FIG. 3 shows details of step S208 in the flowchart shown in FIG.
まず、共通学習モデル生成部212は、MC教師データセット224を訓練データに用いてMC学習モデル223を生成する(ステップS300)。
First, the common learning
次に、共通学習モデル生成部212は、MC学習モデル223と共通学習モデル221とのアンサンブル学習を行う(ステップS301)。ここで、アンサンブル学習とは、複数の学習モデルを組み合わせて(多数決などの方法により)最終的な答えを導く方法である。
Next, the common learning
そして、共通学習モデル生成部212は、アンサンブル学習により得られた学習モデルを元に、学習モデルの軽量化手法によりモバイル用軽量MC学習モデル122を生成する(ステップS302)。
Then, the common learning
なお、図3に示すフローチャートにおいて、学習モデルの軽量化手法によりモバイル用軽量MC学習モデル122を生成した後、モバイル端末100においてモバイル用軽量学習モデル121とアンサンブル学習を行うことで最終的にモバイル用軽量MC学習モデル122を生成することも可能である。
In the flowchart shown in FIG. 3, after the mobile lightweight
図4は、実施例1に係る画像判定システムSの軽量MC学習モデルの生成処理の他の例を示すフローチャートである。図4に示すフローチャートも、図2に示すフローチャートのステップS208の詳細を示すものである。 FIG. 4 is a flowchart illustrating another example of the lightweight MC learning model generation process of the image determination system S according to the first embodiment. The flowchart shown in FIG. 4 also shows details of step S208 in the flowchart shown in FIG.
まず、共通学習モデル生成部212は、MC教師データセット224と共通教師データセット222とを用いてMC学習モデル223を生成する(ステップS400)。
First, the common learning
MC教師データセットが共通教師データセットに比べ極端に少ない(例えば、1/100)場合は、MC教師データセットのデータを水増し(Augmentation)する(ステップS401)。 If the MC teacher data set is extremely smaller than the common teacher data set (for example, 1/100), the data in the MC teacher data set is augmented (step S401).
そして、共通学習モデル生成部212は、MC学習モデル223を元に、学習モデルの軽量化手法によりモバイル用軽量MC学習モデル122を生成する(ステップS402)。
Then, the common learning
次に、図5A及び図5Bは、実施例1に係る画像判定システムSの逐次学習プロセス処理の一例を示すフローチャートである。図5A及び図5Bに示すフローチャートは、図2に示す初期学習モデルの生成処理が行われた後に実行される。 Next, FIGS. 5A and 5B are flowcharts illustrating an example of the sequential learning process processing of the image determination system S according to the first embodiment. The flowcharts shown in FIGS. 5A and 5B are executed after the initial learning model generation process shown in FIG. 2 is performed.
まず、モバイル用画像判定部111は、モバイル用軽量学習モデル121を用いて、ユーザが撮像して得られた画像に対して被写体の判定処理を行う(ステップS500)。判定処理結果は、画像に写っている被写体の分類(例えば「犬」「猫」)が、その確からしさ(「確度」)とともに得られる。
First, the mobile
そして、この確度が上位n位(nは自然数)の判定結果について、それぞれの確度を合計したものがx%(0≦x≦100であり、例えばx=80)以上であるか否かが判定される(ステップS501)。そして、判定が肯定されたらプログラムはステップS402に移行し、モバイル端末100の表示部150に上位n位の候補である被写体の分類を確度とともに表示する。一方、判定が否定されたらプログラムはステップS505に移行する。
Then, it is determined whether or not the sum of the respective accuracies is greater than or equal to x% (0≦x≦100, for example, x=80) for the judgment results with the highest accuracy (n is a natural number). (Step S501). If the determination is affirmative, the program moves to step S402, and displays the classification of the subject that is the top n candidate on the
ステップS502に次いで、モバイル用画像判定部111は、モバイル端末100の表示部150に表示された候補のうち、最も確度が高い=トップカテゴリの分類の確度がz%(0≦z≦100であり、例えばz=50)であって、しかも、この分類をさらに細分化した細分類=サブカテゴリを持つか否かが判定される(ステップS503)。ここに、サブカテゴリ=細分類は、例えば分類が「犬」であれば「柴犬」「チワワ」など、分類「犬」に属する犬種である。そして、判定が肯定されたらプログラムはステップS511に移行し、判定が否定されたらプログラムはステップS504に移行する。
Next to step S502, the mobile
すなわち、モバイル用画像判定部111は入力部140を介したユーザの分類指定入力を待ち、この分類指定入力がされたら、ユーザの分類指定入力がステップS502で表示された候補の中にあったか否かが判定される(ステップS504)。そして、判定が肯定されたらプログラムはステップS510に移行し、判定が否定されたらプログラムはステップS505に移行する。
That is, the mobile
一方、ステップS505では、モバイル端末100のデータ送受信部113が、ユーザが撮像して得られた画像を共通サーバ200に送信する。共通サーバ200の共通制御部210は、共通学習モデル221を用いて画像の判定を行い、その結果をモバイル端末100に送信する(ステップS506)。次いで、モバイル用画像判定部111は、ステップS406における画像判定の結果をもってしても確度が上がらない場合を想定して、ステップS501における判定基準であるxをy(例えば5%)だけ減算する(ステップS507)。
On the other hand, in step S505, the data transmitting/receiving
そして、モバイル用画像判定部111は、上位n位以内の判定結果の確度の合計であるxがa%(0≦a≦100であり、例えばa=50)を下回ったか否かが判定される(ステップS508)。そして、判定が肯定されたらプログラムはステップS509に移行し、判定が否定されたらプログラムはステップS501に移行する。
Then, the mobile
ステップS509では、モバイル用画像判定部111が、ユーザに対して画像に対する正解となる分類の入力を促す。そして、ステップS410では、モバイル端末100のデータ収集部114が、ユーザの選択をモバイル用MC教師データセット123に一時的に格納後、一定数蓄積されたら、MC教師データセット224として共通サーバ200に送信する。
In step S509, the mobile
図5Bにおいて、専門サーバ300の専門画像判定部311は、専門学習モデル321を用いて画像判定を行い、その結果をモバイル端末100に送信する(ステップS511)。次いで、上位n位の判定結果について、それぞれの確度を合計したものがx%以上であるか否かが判定される(ステップS512)。そして、判定が肯定されたらプログラムはステップS513に移行し、モバイル端末100の表示部150に上位n位の候補である被写体の分類を確度とともに表示する。一方、判定が否定されたらプログラムはステップS515に移行する。
In FIG. 5B, the specialized
ステップS513では、モバイル用画像判定部111は入力部140を介したユーザの分類指定入力を待ち、この分類指定入力がされたら、ユーザの分類指定入力がステップS502で表示された候補の中にあったか否かが判定される。そして、判定が肯定されたらプログラムはステップS516に移行し、判定が否定されたらプログラムはステップS515に移行する。ステップS515では、モバイル端末100のモバイル用画像判定部111は、ステップS506で得られた共通サーバ200の画像判定結果を表示する。
In step S513, the mobile
そして、ステップS516では、モバイル端末100のデータ収集部114が、ユーザの選択入力をMC教師データセット224として共通サーバ200に送信する。
Then, in step S516, the
図6は、実施例1に係る画像判定システムSのMC学習モデルの生成処理を説明するための図、図7A~図7Cは、実施例1に係る画像判定システムSのMC学習モデルの生成処理の一例を示すフローチャートである。 FIG. 6 is a diagram for explaining the MC learning model generation process of the image judgment system S according to the first embodiment, and FIGS. 7A to 7C are the MC learning model generation processes of the image judgment system S according to the first embodiment. It is a flowchart which shows an example.
これら図において、USER-Xは、モバイル端末100の撮像部130で被写体を撮像し、(1)モバイル用軽量学習モデル121(共通)を使って画像判定する(ステップS700)。画像判定による候補は、モバイル端末100の表示部150の画面の大きさに合わせて、上位T位まで表示する。
In these figures, USER-X images a subject with the
次に、データ収集部114は、USER-Xが選択した答えが上位n位以内の候補にあり、かつ確度a%以上かどうかを判定する(ステップS701)。上位n位以内の候補にあり、かつ確度a%以上だった場合は(ステップS701においてYES)、データ収集部114はMCの必要性がないものと判断し、被写体画像データに選択した候補(ラベル)を付加して、共通サーバ200に送信し、共通サーバ200はこのデータを共通教師データセット222に追加・蓄積する(ステップS702)。
Next, the
一方、ステップS701において判定が否定されたら、データ収集部114は、USER-Xが選択した答えが上位n位以内の候補にあるが、確度a%未満だったか否かを判定する(ステップS703)。そして、判定が肯定されたら(ステップS503でyes)、モバイル用軽量学習モデル121(共通)のお勧めとは違う候補を選択したものと考え、データ収集部114は当該USER-X固有のこと、すなわちMCが必要な判定と判断し、当該被写体画像データに選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS705)。
On the other hand, if the determination in step S701 is negative, the
一方、上位n位以内の候補になかったが、候補上位T位以内に表示された候補と一致した場合(ステップS703においてNO)は、データ収集部114は、モバイル用軽量学習モデル121(共通)のお勧めとは違う候補を選択したものと考え、当該USER-X固有のこと、すなわちMCが必要な判定と判断し、当該被写体画像データに選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS504でYES)。
On the other hand, if the candidate is not in the top n candidates but matches a candidate displayed in the top T candidates (NO in step S703), the
さらに、上位T位以内の候補になく、その他を選択した場合(ステップS704においてNO)、USER-Xの(2)モバイル用軽量MC学習モデル122(X)を使って画像判定をやり直す(ステップS706)。画像判定による候補は、モバイル端末100の表示部150の画面の大きさに合わせて、上位T位まで表示する。
Furthermore, if it is not in the top T candidates and you select others (NO in step S704), redo the image judgment using the (2) mobile lightweight MC learning model 122(X) of USER-X (step S706) ). The candidates based on the image determination are displayed up to the top T in accordance with the screen size of the
その際、判定結果の中に、ステップS700で判定した、上位T位以内の候補が重複してあった場合は、その候補を排除して、新たに判定されたものだけで、Max上位T位まで、その他のプルダウン候補として再提示する。 At that time, if there are duplicate candidates within the top T rank determined in step S700 in the determination results, those candidates are eliminated and only the newly determined candidates are used to rank up to the Max top T rank. Re-present as other pull-down candidates.
次に、データ収集部114は、USER-Xが選択した答えが上位m位以内の候補にあり、かつ確度b%以上かどうかを判定する(ステップS707)。上位m位以内の候補にあり、かつ確度b%以上だった場合(ステップS707においてYES)は、データ収集部114は(2)モバイル用軽量MC学習モデル122(X)が適した判定を行ったものと判断し、当該被写体の画像に選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS708)。
Next, the
一方、ステップS707において判定が否定されたら、データ収集部114は、USER-Xが選択した答えが上位m位以内の候補にあるが、確度b%未満だったか否かを判定する(ステップS709)。そして、判定が肯定されたら(ステップS709でYES)は、データ収集部114は、モバイル用軽量MC学習モデル122(X)のお勧めとは違う候補を選択したものと考えられるが、あくまでも当該USER-X固有のこと、すなわちMCが必要な判定であることには変わりはないものと判断し、当該被写体画像データに選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS711)。
On the other hand, if the determination in step S707 is negative, the
上位m位以内の候補になかったが、T位以内に表示された候補と一致した場合(ステップS710においてYES)は、モバイル用軽量MC学習モデル122(X)特有であると考え、当該被写体画像データに選択した候補(ラベル)を付加して、モバイル用MC教師データセット123(X)に追加・蓄積する(ステップS711)。 If the subject image is not in the top m candidates but matches a candidate displayed in the top T positions (YES in step S710), it is considered that this is unique to the mobile lightweight MC learning model 122(X), and the subject image is The selected candidate (label) is added to the data and added to and stored in the mobile MC teacher data set 123 (X) (step S711).
上位T位以内の候補になく(ステップS710でNO)、その他を選択した場合、データ収集部114は被写体画像を共通サーバ200に送信して、(3)共通学習モデル221を使って画像判定をやり直す(ステップS712)。画像判定による候補は、モバイル端末100の表示部150の画面の大きさに合わせて、上位T位まで表示する。
If the subject image is not in the top T candidates (NO in step S710) and you select Others, the
その際、判定結果の中に、ステップS700で判定した、上位T位以内の候補や、ステップS706で判定した上位T位以内の候補が重複してあった場合は、その候補を排除して、新たに判定されたものだけで、Max上位T位まで、その他のプルダウン候補として再提示する。 At this time, if there are duplicate candidates in the top T ranks determined in step S700 or candidates in the top T ranks determined in step S706 in the determination results, those candidates are eliminated. Only the newly determined items are re-presented as other pull-down candidates up to the maximum T rank.
次に、データ収集部114は、USER-Xが選択した答えが、上位?位以内の候補にあった場合、あるいは、確度c%以上かどうかを判定する(ステップS713)。上位L位以内の候補にあり、かつ確度c%以上だった場合(ステップS713においてYES)は、(3)共通学習モデル221が適した判定を行ったものと判断し、データ収集部114は当該被写体の画像に選択した候補(ラベル)を付加して、共通教師データセット222に追加・蓄積する(ステップS714)。
Next, the
ステップS713の判定が否定され、USER-Xが選択した答えが上位L位以内の候補にあるが、確度c%未満だった場合(ステップS715でYES)は、データ収集部114は、共通学習モデル221のお勧めとは違う候補を選択したものと考え、当該USER-X固有のこと、すなわちMCが必要な判定であると判断し、当該被写体画像データに選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS717)。
If the determination in step S713 is negative and the answer selected by USER-X is among the top L candidates, but the accuracy is less than c% (YES in step S715), the
上位L位以内の候補になかったが、T位以内に表示された候補と一致した場合(ステップS716においてYES)は、データ収集部114はUSER-XのMC学習モデル223(X)特有であると考え、当該被写体画像データに選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS717)。
If the candidate is not in the top L candidates but matches a candidate displayed in the T rank (YES in step S716), the
上位T位以内の候補になく(ステップS716でNO)、USER-Xにその他を選択させた場合、データ収集部114は、被写体画像にあった分類(ラベル)を(4)自由入力により、モバイル端末100の入力部140を通じて入力させる(ステップS718)。
If it is not in the top T candidates (NO in step S716) and USER-X selects Others, the
入力されたデータを図6に示す、同義語辞書(シノニムDB)680と照らし合わせて、同義語としての登録があった場合、データ収集部114は代表表記語に置換して、表記の揺らぎを防止する(ステップS719)。
The input data is compared with the synonym dictionary (synonym DB) 680 shown in FIG. 6, and if there is a registration as a synonym, the
次に、データ収集部114は、入力された分類(ラベル)が、サブカテゴリ辞書(シソーラスDB)690に登録された分類カテゴリに該当するかチェックする(ステップS720)。
Next, the
USER-Xが入力した答えが、既存のカテゴリと合致した場合、(1)モバイル用軽量学習モデル(共通)、(2)モバイル用軽量MC学習モデル(USER-X用)、(3)共通学習モデルのいずれの学習モデルでも、予測できなかった新しい被写体画像であったということで、とりあえず、データ収集部114はUSER-X固有のMC対象情報として、USER-XのMC教師データセットに追加・蓄積する(ステップS721)。
If the answer entered by USER-X matches an existing category, (1) Mobile lightweight learning model (common), (2) Mobile lightweight MC learning model (for USER-X), (3) Common learning Since this was a new subject image that could not be predicted by any of the learning models, the
入力された分類(ラベル)が、サブカテゴリ辞書(シソーラスDB)690に登録された分類カテゴリに該当するものがなかった(ステップS720でNO)場合、次に、データ収集部114は、サブカテゴリに該当するものがあるかチェックする。(ステップS722)。
If the input classification (label) does not correspond to any classification category registered in the subcategory dictionary (thesaurus DB) 690 (NO in step S720), then the
USER-Xが入力した答えが既存のサブカテゴリと合致した場合(ステップS722においてYES)、(1)モバイル用軽量学習モデル(共通)、(2)モバイル用軽量MC学習モデル(USER-X用)、(3)共通学習モデルのいずれの学習モデルでも予測できなかった新しい被写体画像ではあるが、詳細な分類の知識に該当するため、専門教師データセット322に追加・蓄積する(ステップS723)。 If the answer input by USER-X matches an existing subcategory (YES in step S722), (1) mobile lightweight learning model (common), (2) mobile lightweight MC learning model (for USER-X), (3) Although this is a new subject image that could not be predicted by any of the common learning models, since it corresponds to detailed classification knowledge, it is added and stored in the specialized teacher data set 322 (step S723).
入力された分類(ラベル)が、サブカテゴリ辞書(シソーラスDB)690に登録された分類サブカテゴリにも該当するものがなかった(ステップS722でNO)場合、既存のカテゴリにもサブカテゴリにも存在しない新たな分類カテゴリを入力されたということで、データ収集部114は、サブカテゴリ辞書(シソーラスDB)690に新たなカテゴリとして当該ラベルを追加し、被写体画像データに入力された分類(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS723)。
If the input classification (label) does not correspond to any classification subcategory registered in the subcategory dictionary (thesaurus DB) 690 (NO in step S722), a new category that does not exist in any existing category or subcategory is added. Since the classification category has been input, the
図7Cにおいて、(1)モバイル用軽量学習モデル(共通)、(2)モバイル用軽量MC学習モデル(USER-X用)、(3)共通学習モデルで、被写体画像データに選択した候補(ラベル)を付加して、各々の教師データセットに追加・蓄積した(ステップS702、S705、S708、S711、S714、S717)後、および(4)自由入力の分類(ラベル)が既存のカテゴリに存在した場合(ステップS721)は、データ収集部114は、当該カテゴリに、サブカテゴリ辞書(シソーラスDB)690に登録された分類サブカテゴリがあるかどうかをチェックする(ステップS725)。
In FIG. 7C, candidates (labels) selected for the subject image data in (1) mobile lightweight learning model (common), (2) mobile lightweight MC learning model (for USER-X), and (3) common learning model. (steps S702, S705, S708, S711, S714, S717), and (4) when a free input classification (label) exists in an existing category. (Step S721), the
サブカテゴリを持つ場合(ステップS725においてYES)、データ収集部114は、USER-Xにサブカテゴリ化(詳細化)を望むかどうか問合せる(ステップS726)。
If there is a subcategory (YES in step S725), the
USER-Xが詳細化を望む場合(S727でYES)、データ収集部114は、被写体画像を専門サーバ300に送って(エスカレーションし)、(5)専門学習モデル321を使って画像を判定し、サブカテゴリに詳細化した確度の上位T位までの候補をモバイル端末100の表示部150に表示する(ステップS728)。
If USER-X desires detailing (YES in S727), the
次に、データ収集部114は、USER-Xが選択した答えが、上位k位以内の候補にあり、かつ確度d%以上かどうかを判定する(ステップS729)。上位k位以内の候補にあり、かつ確度d%以上だった場合(ステップS729においてYES)は、(5)専門学習モデル321が適した判定を行ったものと判断し、当該被写体の画像に選択した候補(ラベル)を付加して、専門教師データセット322に追加・蓄積する(S730)。
Next, the
また、USER-Xにとって、当該被写体のような場合に、サブカテゴリに詳細化することが当該USER-X固有のこと、すなわちMCが必要な判定でもあるものと判断し、当該被写体の画像に選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)にも追加・蓄積する(ステップS731)。 In addition, for USER-X, in a case like the subject, it is unique to the USER-X to subcategory, that is, it is a judgment that requires MC, and it is selected for the image of the subject. The candidate (label) is added and also added to and stored in the MC teacher data set 224 (X) of USER-X (step S731).
一方、USER-Xが選択した答えが、上位k位以内の候補にあるが、確度d%未満だった場合(ステップS732でYES)は、専門学習モデル321のお勧めとは違う候補を選択したものと考え、当該USER-X固有のこと、すなわちMCが必要な判定であると判断し、当該被写体画像データに選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS737)。
On the other hand, if the answer selected by USER-X is among the top k candidates but the accuracy is less than d% (YES in step S732), a candidate different from the one recommended by the
さらに、上位k位以内の候補になかったが、T位以内に表示された候補と一致した(ステップS733でYES)場合は、専門学習モデル321のお勧めとは違う候補を選択したものと考え、当該USER-X固有のこと、すなわちMCが必要な判定であると判断し、当該被写体画像データに選択した候補(ラベル)を付加して、USER-XのMC教師データセット224(X)に追加・蓄積する(ステップS737)。
Furthermore, if the candidate is not among the top k candidates but matches the candidate displayed within the T rank (YES in step S733), it is assumed that a candidate different from the one recommended by the
USER-Xが選択した答えが、上位T位以内の候補になかった(ステップS733でNO)場合、その他を選択してもらって、図6の例に示すサブカテゴリ辞書(シソーラスDB)690を参照して、当該カテゴリのサブカテゴリ候補を全て、スクローリング等の手法で、1画面に収まらない候補まですべてを提示し、USER-Xには、その中から自由に選択してもらうようにする。(ステップS734) If the answer selected by USER-X is not among the top T candidates (NO in step S733), ask the user to select Other and refer to the subcategory dictionary (thesaurus DB) 690 shown in the example of FIG. , all subcategory candidates for the category are presented, including those that do not fit on one screen, by scrolling or other methods, and the USER-X is allowed to freely select from among them. (Step S734)
そして、USER-Xの選択肢がその中になかった場合は、USER-Xに自由にキー入力にて詳細なサブカテゴリを入力してもらう(ステップS735)。この際、コンボボックスタイプの入力方法(プルダウンとキー入力の両方が可能)を用いる。 If USER-X's options are not among them, USER-X is asked to freely input detailed subcategories by key input (step S735). In this case, use a combo box type input method (both pulldown and key input are possible).
このようにして入力されたデータを図6に示す、同義語辞書(シノニムDB)680と照らし合わせて、同義語としての登録があった場合、代表表記語に置換して、表記の揺らぎを防止する(ステップS736)。 The data input in this way is compared with the synonym dictionary (synonym DB) 680 shown in FIG. 6, and if there is a registration as a synonym, it is replaced with a representative notation to prevent fluctuations in the notation. (Step S736).
USER-Xが選択した候補や、自由にキー入力してもらったサブカテゴリは、サブカテゴリ辞書(シソーラスDB)690に新たなレコードとして追加する。なお、シソーラスDB690の正式更新には、管理者の承認を必要とすることも可能である。この後、MCが必要な場合と判断し、当該被写体の画像に入力した候補(ラベル)を付加して、USER-Xのモバイル用MC教師データセット123(X)に追加・蓄積する(ステップS737)。このデータは、まだ新しくUSER-X固有のことである可能性が高いため、この時点では専門教師データセット322には追加しない。
The candidates selected by USER-X and the subcategories entered freely by key are added to the subcategory dictionary (thesaurus DB) 690 as new records. Note that formal updating of the
従って、本実施例によれば、モバイル端末100のデータ収集部114は、分類の修正または追加入力を専門サーバ300に送信し、専門サーバ300は、モバイル端末100から送信された修正または追加入力を用いて専門教師データセット322を生成する専門データ収集部314と、専門教師データセット322を用いて専門学習モデル321を生成する専門学習モデル生成部312と、モバイル端末100のモバイル用画像判定部111による判定が困難な場合、画像に基づいて専門学習モデル321を用いて被写体を判定する専門画像判定部311とを有する。
Therefore, according to the present embodiment, the
従って、本実施例によれば、被写体の分類(カテゴリ)に詳細な分類(サブカテゴリ)を設定して詳細な判定を行うことができるので、画像の類似判定作業をより精密に行うことができる。 Therefore, according to the present embodiment, detailed classifications (subcategories) can be set in the classifications (categories) of objects and detailed determinations can be made, so that image similarity determination work can be performed more precisely.
さらに、本実施例によれば、共通サーバ200の共通データ収集部214は、モバイル端末100から送信された修正または追加入力を用いてMC教師データセット224を生成し、共通サーバ200の共通学習モデル生成部212は、MC教師データセット224を用いてMC学習モデル223を生成し、さらに、MC学習モデル223を軽量化してモバイル用軽量MC学習モデル122を生成し、このモバイル用軽量MC学習モデル122をモバイル端末100に送信し、モバイル端末100のモバイル用画像判定部111は、モバイル用軽量学習モデル121とモバイル用軽量MC学習モデル122とを用いて被写体を判定している。
Further, according to the present embodiment, the common
従って、本実施例によれば、モバイル端末100を使用する個々のユーザ毎にMCされたモバイル用軽量MC学習モデル122を用いて画像判定を行うことができるので、ユーザが好む詳細な分類の判定を的確に行うことができる。
Therefore, according to the present embodiment, image judgment can be performed using the mobile lightweight
なお、本実施例では、人工知能を構成する端末やサーバ群が多段構造(モバイル端末100、共通サーバ200、専門サーバ300)を形成し、求める精度に応じてエスカレーションしている(モバイル端末100(ローカル処理)→共通サーバ200(オンプレミス)→専門サーバ30(オンプレミスまたはネットワークAI))。
In this embodiment, a group of terminals and servers that make up the artificial intelligence form a multi-stage structure (
そして、この専門サーバ300(オンプレミス)でもわからなければ、その後ろにある複数のネットワークAI(インターネット検索エンジンがベースの自社/他社提供AI)に問合せて、多数意見を回答とする方式も考えられる。将来的には、より高度な知見を持ったネットワークAIが無償(一部有償)で提供されるようになることが予想される。ネットワークAIは、高度であればあるほど提供されるサービス数は少なくなり、逆に全世界からエスカレーショントランザクションが上がって来るので、バランスの取れたシステム(AI-WiKi)となる。そうしたネットワークAI体系を含めて、専門サーバ300と呼ぶことも可能である。
If this specialized server 300 (on-premises) does not provide an answer, it is possible to inquire of multiple network AIs behind it (AIs provided by the company or other companies based on Internet search engines) and receive the majority opinion as the answer. In the future, it is expected that network AI with more advanced knowledge will be provided free of charge (with some charges). The more advanced network AI is, the fewer services it provides, and conversely, escalation transactions come from all over the world, resulting in a well-balanced system (AI-WiKi). It is also possible to include such a network AI system and call it a
以下の説明において、実施例2では、画像判定動作を主に共通サーバ200で行っているものとして説明するが、上述の実施例1のように、画像判定動作を主にモバイル端末100で行うことも可能である。
In the following description, in the second embodiment, the image determination operation is mainly performed by the
本実施例の画像判定システムSと実施例1の画像判定システムSとの相違点は、共通サーバ200、専門サーバ300の機能構成及びモバイル端末100の動作にある。
The difference between the image determination system S of this embodiment and the image determination system S of the first embodiment lies in the functional configurations of the
すなわち、共通サーバ200の共通制御部210は、共通画像判定部211及び共通成熟度算出部215を有し、専門サーバ300の専門制御部310は専門成熟度算出部315を有する。
That is, the
共通成熟度算出部215、または、専門成熟度算出部315は、各学習済みモデルの学習(訓練)の経験の深さを表す指標を数値化するための計算機構であり、初期または、収集されて纏まった共通教師データセット222や、専門教師データセット322を使って、共通学習モデル221や、それを軽量化して生成するモバイル用軽量学習モデル(共通)121、専門学習モデル321を生成するタイミングで動作し、分類ごとに成熟度が計算される。
The common maturity
また、共通成熟度算出部215、または、専門成熟度算出部315は、画像判定システムSが動作(運用)しながら、モバイル端末100等から収集された、各USER-Xのモバイル用MC教師データセット123(X)に追加・蓄積されたデータや、共通教師データセット222に追加・蓄積されたデータ、MC教師データセット224(X)、専門教師データセット322に追加・蓄積されたデータを用いて、または加えて、再学習により、共通学習モデル221や、それを軽量化して生成するモバイル用軽量学習モデル(共通)121、専門学習モデル321、MC学習モデル(X)223(X)、モバイル用軽量MC学習モデル122(X)の新規生成またはリニューアル版の学習モデルを生成するタイミングで動作し、分類ごとに成熟度が計算される。
In addition, the common maturity
共通成熟度算出部215、または、専門成熟度算出部315による成熟度の算出手順について説明する。
A procedure for calculating the maturity level by the common maturity
まず、成熟度における学習データ量因子の算出方式について説明する。被写体画像のカテゴリ、またはサブカテゴリ(以下、クラスという。)cに関する、訓練データ数がnの時の学習データ量因子関数volは、訓練データ数nの関数であり、その値域は[0,1]である。一例として、アークタンジェント関数を用いて、学習データ量因子関数volを次のように定義する。
なお、パラメータNは標準学習データ量で1以上の整数であり、パラメータaはアークタンジェント関数の係数で、正の実数値とする。あくまでも例だが、標準学習データ量の半量で学習するとほぼ50%の成熟度に成長するものとし、aの値によって、成熟度曲線の立ち上がりがなだらかになったり(例えば、0<a<1.0)、急な立ち上がりを示す(例えば、a>1.0)。すなわち、教師データが充分少ない場合、成熟度は低い(人間の赤ちゃんがものごとを理解/認知するためには一定量の教師データが必要と言うことに近似)。充分多い場合でも100%にはならず、成熟度=100%の漸近線に近づくのみ(人間のその道のエキスパート(博士)であっても、非常に多くの教師データを学習しても、完全な理解/認知が可能となるわけではないことに近似)となる。 Note that the parameter N is a standard learning data amount and is an integer of 1 or more, and the parameter a is a coefficient of an arctangent function and is a positive real value. This is just an example, but it is assumed that learning with half the amount of standard training data will grow to approximately 50% maturity, and depending on the value of a, the rise of the maturity curve will be gradual (for example, 0<a<1.0 ), exhibiting a sudden rise (for example, a>1.0). In other words, if there is insufficient training data, the level of maturity is low (approximately similar to saying that a certain amount of training data is required for human babies to understand/recognize things). Even if the number is large enough, it will not reach 100%, and will only approach the asymptote of maturity = 100% (even if you are an expert (doctor) in that field, even if you learn a very large amount of training data, it will not reach 100%). (an approximation that understanding/cognition is not possible).
次に、学習成熟度における学習データ類似性因子の算出方式について説明する。クラスcに関する学習データ類似性因子関数simは、クラスcに属する訓練データX={x1,x2,…、xn}の関数であり、その値域は[0,1]である。この関数は、データの類似性が最低のとき最小値を取り、類似性が最大のとき最大値を取る。 Next, a method for calculating the learning data similarity factor at the learning maturity level will be explained. The learning data similarity factor function sim regarding class c is a function of training data X={x 1 , x 2 , . . . , x n } belonging to class c, and its range is [0, 1]. This function takes the minimum value when the data have the lowest similarity, and the maximum value when the data have the highest similarity.
一例として、類似度関数SIMを用いて、学習データ類似性因子関数simを次のように定義する。bは、類似度関数の係数で、値域[0,1]とする。
学習成熟度は、学習データ量因子と学習データ類似性因子の関数とする。一般には、次の式で表せる。
学習成熟度のうち、学習データ量因子と学習データ類似性因子で定義されるものを、単純学習成熟度と呼ぶ。すなわち、
そして、モバイル端末100の表示部は、画像と、共通画像判定部211により判定された被写体の分類と、共通成熟度算出部215、または、専門成熟度算出部315により算出された成熟度を各学習モデルが判定した確度とともに提示する。提示方法は、成熟度を数値のまま%表示することでも構わないが、学習モデルのクラスcに関する成熟度を例えば、幼児レベルから、小学生、大人、博士レベルまで、イメージをつかみやすいようにイラスト表示することなどが考えられる。(図13)
Then, the display unit of the
図8は、実施例2に係る画像判定システムSの逐次学習プロセス処理の一例(通常時)を示すフローチャートである。 FIG. 8 is a flowchart illustrating an example (normal time) of the sequential learning process processing of the image determination system S according to the second embodiment.
まず、ユーザはモバイル端末100の撮像部130を用いて被写体を撮像して画像を取得する(ステップS800)。
First, the user uses the
画像判定システムSは、各学習モデル(モバイル用軽量学習モデル121→モバイル用軽量MC学習モデル122→共通学習モデル221→MC学習モデル223→専門学習モデル321)に基づき、順次必要に応じてエスカレーションしながら当該画像を判定する(ステップS801)。
The image judgment system S sequentially escalates as necessary based on each learning model (mobile
判定処理結果である被写体の分類は、その分類の確度とともにモバイル端末100の表示部150に表示される。(ステップS802)。そして、表示された候補の中に正しいカテゴリがあるか否かがUSER-Xにより判定される(ステップS803)。判定が肯定されたらプログラムはステップS804に移行し、判定が否定されたらプログラムはステップS807に移行する。
The classification of the subject, which is the result of the determination process, is displayed on the
ステップS804では、表示部150に表示されている候補の中から正しいカテゴリを選択する。
In step S804, a correct category is selected from the candidates displayed on the
次に、選択されたクラスcの学習成熟度がθ以上で確度がκ以下であるか否かが判定される(ステップS805)。判定が肯定されたら、ステップS806において成熟後フィードバックプロセス1を実行する。その後、プログラムはステップS809に移行する。
Next, it is determined whether the learning maturity level of the selected class c is greater than or equal to θ and the accuracy is less than or equal to κ (step S805). If the determination is affirmative, the
一方、ステップS807では、USER-Xは正しいカテゴリを入力し、ステップS808において成熟後フィードバックプロセス2を実行する。
On the other hand, in step S807, USER-X inputs the correct category, and in step S808, the
次いで、共通サーバ200は、モバイル端末100により撮像された画像データとUSER-Xが選択/入力したカテゴリとを共通記憶部220に蓄積する(ステップS809)。そして、共通サーバ200の共通学習モデル生成部212は、ステップS809で蓄積されたデータに基づいて共通学習モデル221を生成する(ステップS810)。
Next, the
図8のステップS806である成熟後フィードバックプロセス1について、図9を参照して説明する。
まず、ステップS900で、当該クラスcの成熟度が高い(θ以上)であるにもかかわらず、確度が低い(κ以下)の事態が、極めてまれなケースでそれほど頻度が多くはない場合は、学習成熟度関数を直す必要がないので、このような事象になった回数をカウントアップする。すなわち、初期値CNT(c)=0の、CNT(c)の値を1加算する。 First, in step S900, if the situation in which the maturity level of the class c is high (more than θ) but the certainty is low (less than κ) is extremely rare and does not occur very often, Since there is no need to correct the learning maturity function, the number of times such an event occurs is counted up. That is, 1 is added to the value of CNT(c) where the initial value CNT(c)=0.
次に、CNT(c)の値が、一定値M(例えば、Mは5件とか、10件と言った自然数でも良いし、標準学習量Ncのm%として計算される値でも良い)を超えたかどうかを判定する(ステップS901)。Mを超えた場合(ステップS901においてYES)は、この事態がまれにある場合(例外ケース)ではないものと判断し、学習成熟度関数を調整するステップS903~905へ進む。M以下であった場合は、終了する(何もしない)。 Next, the value of CNT(c) exceeds a certain value M (for example, M may be a natural number such as 5 or 10 cases, or a value calculated as m% of the standard learning amount Nc). It is determined whether or not (step S901). If M is exceeded (YES in step S901), it is determined that this situation is not a rare case (an exceptional case), and the process proceeds to steps S903 to S905 for adjusting the learning maturity function. If it is less than or equal to M, the process ends (does nothing).
ステップS902ではCNT(c)に0を代入して、初期化する。 In step S902, 0 is assigned to CNT(c) to initialize it.
学習習熟度関数の変更のため、ステップS903では標準学習データNcを増やし(例えば2倍)、ステップS904ではvolの係数aを減らし(例えば1/2)、ステップS905ではsimの係数bを減らし(例えば1/2)、学習習熟度を再計算する。この3つのステップは、どれか一つでも構わないし、2つを選択して実施しても構わないし、3つ全てのステップを同時に行っても構わない。 To change the learning proficiency function, the standard learning data Nc is increased (for example, by 2 times) in step S903, the coefficient a of vol is decreased (for example, by 1/2) in step S904, and the coefficient b of sim is decreased in step S905 ( For example, 1/2), the learning proficiency level is recalculated. Any one of these three steps may be performed, two may be selected and performed, or all three steps may be performed at the same time.
一般的には、S903でNcを増やす。学習曲線の立ち上がりが早すぎたと判断される場合は、S904を実行し、曲線をなだらかに寝かせる。成熟度の数字そのものが、イメージイラストとずれていると感じた場合は、S905を実行し成熟度そのものの絶対値を減らす。どのケースに当てはまるかを自動的に判断する機構については、S903でNcを増やす行為を何度か繰り返しても効果がなかった場合は、S904を試すなど、自動的に試行錯誤しながら成長する機構を組み込めばよい。 Generally, Nc is increased in S903. If it is determined that the learning curve has risen too quickly, S904 is executed to smooth the curve. If it is felt that the maturity level itself deviates from the image illustration, S905 is executed to reduce the absolute value of the maturity level itself. The mechanism that automatically determines which case applies is a mechanism that automatically grows through trial and error, such as trying S904 if increasing Nc in S903 several times has no effect. Just incorporate it.
次に、図8のステップS808である成熟後フィードバックプロセス2について、図10を参照して説明する。
Next, the
USER-Xにより入力されたクラスcは、画像判定システムsが選んだ候補ではないため、当該クラスcの学習成熟度が登録されているかどうかをチェックする必要がある。学習成熟度は、学習モデルを生成するごとにそれぞれで計算されるため、該当する学習モデルの学習成熟度を参照する。(ステップS1000) Since the class c input by USER-X is not a candidate selected by the image determination system s, it is necessary to check whether the learning maturity level of the class c is registered. Since the learning maturity level is calculated each time a learning model is generated, the learning maturity level of the corresponding learning model is referred to. (Step S1000)
次に、学習成熟度が登録済みであって、一定値θ以上であるかどうかを判定する(ステップS1001)。θ以上であった場合(ステップS1001においてYES)、充分な成熟をしているにもかかわらず、確度が低かったということになる(高い確度なら選択候補にあるはず)ので、ステップS1002へ進み、成熟後フィードバックプロセス1を実行して、学習成熟度関数を修正する。θ未満であった場合は、当該クラスcについては学習がまだ進んでいないと判断し、何もしない。
Next, it is determined whether the learning maturity level has been registered and is greater than or equal to a certain value θ (step S1001). If it is θ or more (YES in step S1001), it means that the accuracy is low even though it is sufficiently mature (if the accuracy is high, it should be a selection candidate), so the process advances to step S1002. Perform
このように構成される本実施例によれば、共通サーバ200は、モバイル端末100から送信された画像に基づいて被写体の分類を判定する共通画像判定部211と、分類毎の共通学習モデル221の量及び多様性を示す成熟度を算出する共通成熟度算出部215とを有し、モバイル端末100の表示部150には、画像と、共通画像判定部211により判定された被写体の分類と、共通成熟度算出部215により算出された成熟度とが提示される。
According to this embodiment configured in this way, the
従って、本実施例によれば、共通学習モデル221を用いた被写体の画像判定の推論が正しいものであるかどうかを判断することができる。
Therefore, according to the present embodiment, it is possible to determine whether the inference of subject image determination using the
つまり、本実施例では、訓練データの量、及び訓練データの多様性に基づき、クラス別のデータ成熟度を算出して、ユーザに提示している。これにより、ユーザは共通学習モデル221が偶然正しい(または誤った)推論をしているのか、十分な学習の上で正しい(または誤った)推論をしているのかを知ることができる。そして、データ成熟度と推論精度(確度)により、ユーザは当該分類タスクへのAIの適用可能性を判断できる。
That is, in this embodiment, the data maturity level for each class is calculated based on the amount of training data and the diversity of the training data, and is presented to the user. This allows the user to know whether the
一例として、図11に示すように、当初の共通学習モデル221(学習モデルA)では被写体を撮像した画像に対する判定において正解となる分類「鳥」の確度は0.10、成熟度は0.03であったが、その後学習が進展した共通学習モデル221(学習モデルB)では正解となる分類「鳥」の確度が0.50に向上するとともに成熟度も0.50に向上している。従って、学習の進展により正しい推論ができていることがわかる。 As an example, as shown in FIG. 11, in the initial common learning model 221 (learning model A), the accuracy of the classification "bird" which is the correct answer in the judgment for the image taken of the subject is 0.10, and the maturity level is 0.03. However, in the common learning model 221 (learning model B) in which learning has progressed since then, the accuracy of the correct classification "bird" has improved to 0.50, and the maturity level has also improved to 0.50. Therefore, it can be seen that correct inferences are being made as learning progresses.
一方、図12に示すように、当初の共通学習モデル221(学習モデルA)では被写体を撮像した画像に対する判定において正解となる分類「鳥」の確度は0.10、成熟度は0.03であったが、その後学習が進展した共通学習モデル221(学習モデルB)では正解となる分類「鳥」の確度が0.10のまま進展しない一方、成熟度は0.50に向上している。従って、学習の進展により正しい推論ができていないことがわかる。この場合、学習モデルを用いた推論が難しいタスクである可能性が高い。 On the other hand, as shown in FIG. 12, in the initial common learning model 221 (learning model A), the accuracy of the classification "bird" which is the correct answer in the judgment for the image taken of the subject is 0.10, and the maturity level is 0.03. However, in the common learning model 221 (learning model B) in which learning has progressed since then, the accuracy of the correct classification "bird" remains at 0.10 and has not progressed, while the maturity level has improved to 0.50. Therefore, it can be seen that correct inference cannot be made due to the progress of learning. In this case, inference using a learning model is likely to be a difficult task.
図13に示すように、本実施例では、学習対象物ごとに人工知能の学習の成熟度(知見の深さ)をビジュアルに提示し、人工知能の判断結果を人間がどの程度参考にすればよいのかの指標を与えることで、人間の最終判断に寄与することができる。 As shown in Figure 13, in this example, the learning maturity level (depth of knowledge) of the artificial intelligence is visually presented for each learning object, and the extent to which humans should refer to the judgment results of the artificial intelligence is shown. By providing an indicator of whether something is good or not, it can contribute to people's final judgment.
つまり、人工知能も人間のアドバイザーやコンサルタントと同じように得意不得意分野がある。確度のみの提示では、自信の有無を表現できていない。どれだけ勉強してきたかの指標を成熟度として示すことで、信用のおける人工知能かどうかをユーザに理解させた上で、人間の最終判断を仰ぐことができる。 In other words, just like human advisors and consultants, artificial intelligence has its strengths and weaknesses. Presenting only accuracy does not express the presence or absence of confidence. By showing the level of maturity as an indicator of how much learning has been done, the user can understand whether the artificial intelligence is trustworthy or not, and then ask a human to make the final decision.
次に、図14を参照して、実施例1及び実施例2が適用されるアプリケーションについて説明する。 Next, with reference to FIG. 14, an application to which the first embodiment and the second embodiment are applied will be described.
図14に示すアプリケーションは、覆面調査員を使ったレストランメニューの評価である。例えば数千人の覆面調査員に対して3ヶ月間様々なレストランのメニューを評価する業務を依頼する。 The application shown in FIG. 14 is an evaluation of a restaurant menu using an undercover investigator. For example, thousands of undercover investigators are asked to evaluate the menus of various restaurants for three months.
まず、インターネットの募集を見て覆面調査員として登録する。次に、好きなレストランに行って好きなメニューを注文し、運ばれてきたメニューを撮影する。画像判定システムSは撮影された画像に基づいてそのメニュー(分類)を判定する。覆面調査員は、画像判定システムSの判定結果を参照して、メニューを選択、登録する。その後、覆面調査員は食事をして評価を入力し、サーバ(共通サーバ200/専門サーバ300またはそれ以外のサーバ)に送信する。評価項目としては、例えばメニューの名前、写真、値段、見た目の評価、味、満足感(量)、個人的感想などである。
First, he registers as an undercover investigator by looking at job postings on the Internet. Next, go to your favorite restaurant, order your favorite menu, and take a photo of the menu that is brought to you. The image determination system S determines the menu (classification) based on the photographed image. The undercover investigator refers to the determination result of the image determination system S, selects and registers a menu. Thereafter, the undercover investigator eats, inputs an evaluation, and sends it to the server (
その後、既定の評価の量や情報に応じて調査手数料(食事代補助を含む)が覆面調査員に支払われる。 The undercover investigator will then be paid a survey fee (including meal allowance) based on the amount and information provided for the predetermined evaluation.
本実施例では、ある知識について共通教師データセット222として用いるか(モバイル用)MC教師データセット123、224として用いるかについての判断基準について説明する。本実施例の画像判定システムSの判断基準を、以下、サンプリング回答補正方式と称する。
In this embodiment, the criteria for determining whether to use certain knowledge as the common
図14に示すアプリケーションを例にとって考えると、ラーメンに対する知識が豊富なある覆面調査員Aが、その他を選んで新たなカテゴリを正解として入力した場合、一旦、この覆面調査員AのMC教師データセットとして扱い、共通教師データセットに組み込む候補データとして考える。 Taking the application shown in Figure 14 as an example, if a certain undercover investigator A, who has a wealth of knowledge about ramen, selects "Other" and inputs a new category as the correct answer, the MC teacher data set of this undercover investigator A and consider it as candidate data to be incorporated into the common teacher dataset.
あるタイミングで、同じ問題(例えば、「味噌豚骨ラーメン」の画像)を、別の覆面調査員2n人(例えば覆面調査員B、C)に調査依頼を出し、人間による別の回答を促す。 At a certain timing, a request is made to 2n other undercover investigators (for example, undercover investigators B and C) to investigate the same question (for example, an image of "miso pork bone ramen"), and a different human answer is prompted.
別の覆面調査員による回答の内、n人以上が、覆面調査員Aと同じ回答(「味噌豚骨ラーメン」)をした場合、覆面調査員Aの回答も加えると過半数を占めるので、共通教師データに格上げする。一方、別の覆面調査員による回答の内、n人未満が覆面調査員Aの回答と違う回答(ただの「ラーメン」)をした場合、覆面調査員Aの回答を覆面調査員A用のモバイル用MC教師データとして扱う。 If more than n people give the same answer as Masked Investigator A ("Miso Tonkotsu Ramen") out of the answers given by different masked investigators, the common teacher will Upgrade to data. On the other hand, if less than n people give a different answer from the answer given by another undercover investigator (just ``ramen''), then the answer of undercover investigator A will be transferred to the mobile phone for undercover investigator A. Treated as MC training data.
実施例4は、ユーザ毎のMC教師データセットが、当該ユーザ特有のものか、共通知識化が可能かを判定する例を示す。図15は、実施例4で他のユーザの回答を集計して共通知識化が可能かどうかを判定する「サンプリング回答補正方式」処理の一例を示すフローチャートである。 Embodiment 4 shows an example of determining whether the MC teacher data set for each user is unique to the user or whether it can be converted into common knowledge. FIG. 15 is a flowchart illustrating an example of the "sampling answer correction method" process in which answers of other users are aggregated to determine whether it is possible to convert them into common knowledge in the fourth embodiment.
まず、データ収集部114は、あるUSER-Xの回答が、モバイル用軽量MC学習モデル122の回答やモバイル用軽量学習モデル121の回答の中にない(「その他」を選択した)場合、共通サーバ200上のMC学習モデル223(X)及び共通学習モデル221に問合せるが、やはりその中にも回答がない(「その他」を選択した)場合、自由入力により正解データを入力させる(ステップS1500)。入力された教師データは、データ収集部114が一旦モバイル用MC教師データセット123(X)に格納する。
First, if the answer of a certain USER-X is not among the answers of the mobile lightweight
次いで、モバイル用MC教師データセットにデータがある程度蓄積されたら、その中から共通知識化が可能なデータを見つける (他の人間の回答による確認)プロセスを起動する(ステップS1501)。すなわち、共通データ収集部214は、USER-Xのモバイル用MC教師データセット123(X)からサンプリングしたデータを、USER-X以外の2n(n=1以上の整数)のユーザに同じ問題を共通サーバ200からモバイル端末100に配信し、回答を集める(ステップS1502)。
Next, when a certain amount of data has been accumulated in the mobile MC teacher data set, a process for finding data that can be converted into common knowledge (confirmation based on answers from other people) is started (step S1501). That is, the common
そして、共通データ収集部214は、n人以上の回答がUSER-Xの回答と一致したか否かを判定し(ステップS1503)、判定が肯定されたら(ステップS1503においてYES)、モバイル用MC教師データセット123(X)に格納したMCデータを削除し、共通教師データセット222に格上げして格納する(ステップS1504)。
Then, the common
図16は、「MC学習モデル補正方式」処理の一例を示すフローチャートである。 FIG. 16 is a flowchart illustrating an example of the "MC learning model correction method" process.
モバイル用MC教師データセットのデータがある程度蓄積されたら、その中から共通知識化が可能なデータを自動的に見つけるためのプロセスを起動する(ステップS1600)。すなわち、共通データ収集部214は、USER-Xが所有するモバイル端末100のモバイル用MC教師データセット123(X)からサンプリングしたデータをこのUSER-Xのモバイル端末100以外の2n(n=1以上の整数)のモバイル用軽量MC学習モデル122及び共通サーバ200上のMC学習モデル223にて同じ問題を解かせて、判定結果を集計する(ステップS1601)。
Once a certain amount of data in the mobile MC teacher data set has been accumulated, a process is started to automatically find data that can be converted into common knowledge from among the data (step S1600). That is, the common
そして、共通データ収集部214は、nモデル以上の回答が一致したか否かを判定し(ステップS1602)、判定が肯定されたら(ステップS1602においてYES)、モバイル用MC教師データセット123(X)に格納したMCデータを削除し、共通教師データセット222に格上げして格納する(ステップS1603)。
Then, the common
本実施例では、学習モデルの更新/再学習/保守プロセスについて一つの例を示す。共通学習モデル221の作成時の共通教師データセット222が十分なデータ量が収集できている場合、共通学習モデル221のメンテナンスは通常は必要がないが、データに時系列性(経年変化)が存在する場合、共通学習モデル221の陳腐化が発生してきて精度が落ちる可能性がある。これを防止するため、最新のデータで再学習(学習モデルの保守)するプロセスを組み込む。すなわち、日々の運用で判定した結果(学習モデルが判定した通りの結果か、ユーザが手入力で修正した結果)を共通教師データセット222に追加していく。
In this embodiment, one example of the learning model update/relearning/maintenance process will be shown. If a sufficient amount of data has been collected in the
図14に示すアプリケーションを例にとって考えると、3千人の覆面調査員(アルバイト)が外食レストランの画像とメニュー名をアップロードする業務の場合、例えば、1日当たり500人が稼働し、一人1~3件(平均して2件)のデータをアップロードすると1日当たり1,000件のデータが集まる。100日運用すると10万件のデータが蓄積されることになるが、学習モデルの生成にはCPU(GPU)やメモリ/実行時間の制限があり全データを処理できない。そこで、共通学習モデルを作る(再作成する)ためのデータ数の上限を(例えば、1万件と)設定する。 Taking the application shown in Figure 14 as an example, if 3,000 undercover investigators (part-time workers) upload images and menu names of restaurants, for example, 500 people will be working per day, and each person will have 1 to 3 If you upload 1,000 pieces of data per day (2 pieces of data on average), 1,000 pieces of data will be collected per day. After 100 days of operation, 100,000 pieces of data will be accumulated, but due to CPU (GPU) and memory/execution time limitations in generating the learning model, it will not be possible to process all the data. Therefore, an upper limit on the number of data for creating (re-creating) a common learning model is set (for example, 10,000 items).
共通学習モデル生成部212は、モバイル用軽量学習モデル(共通)121作成時の共通教師データセット222のデータ件数をn件(例えば10,000件)とすると、日々の運用で新たに追加されたデータ件数が一定数m件(例えば10%:1,000件)を超えるのを待ち(ステップS1700においてYES)、超えた時点で、n+m件の教師データで共通学習モデル221の再作成に必要な時間(t1)が、日々の運用で新たにm件のデータが蓄積される時間(t2)を超えたか否かを判定する(ステップS1701)。
If the number of data items in the
そして、判定が肯定されたら(ステップS1701においてYES)、共通学習モデル生成部212は、n+m件のオリジナルデータを間引くことで、t1<t2に収まる程度のデータ数にして、再学習プロセスを走らせる(ステップS1702)。再学習プロセスの詳細については、図18及び図19を参照して後述する。一方、判定が否定されたら(ステップS1701においてNO)、共通学習モデル生成部212は、n件のオリジナルデータを間引かず、再学習プロセスを走らせる(ステップS1703)。
If the determination is affirmative (YES in step S1701), the common learning
図18、19は、実施例5に係る画像判定システムSの学習モデル更新処理、すなわち再学習プロセスの例を示すフローチャートである。図18に示すフローチャートは、共通教師データセット222のカテゴリ毎の出現頻度に準拠して、再学習用教師データを用意する方式であり、図19に示すフローチャートは、共通教師データセット222のカテゴリ毎に極力一定数の再学習用教師データを用意する方式である。
18 and 19 are flowcharts illustrating an example of a learning model update process, that is, a relearning process, of the image determination system S according to the fifth embodiment. The flowchart shown in FIG. 18 is a method for preparing teacher data for relearning based on the appearance frequency of each category of the common
図18において、新しいデータは、出現頻度が正規分布等に従って頻度が多いものから少ないものに分散することが予測される。この頻度のまま共通教師データセット222に加えていくと、マイノリティ(出現頻度の少ない)のデータが学習に活かされなくなる。これを避けるため、出現頻度の高いラベルでは約半数、出現頻度の少ない(ロングテール)のデータはほぼ全数が教師データに加えられるように逓減しながらサンプリングしていく。
In FIG. 18, it is predicted that the appearance frequencies of new data will be distributed from those with higher frequency to those with lower frequency according to a normal distribution or the like. If the data is added to the common
まず、共通学習モデル生成部212は、日々の運用のデータが一定量(例えば1,000件)蓄積されたら、判定した結果が、共通学習モデル221が予測した結果と同じだった場合(例えば950件)、カテゴリごとに出現頻度の高い順に並べる(ステップS1800)。
First, when the common learning
次に、共通学習モデル生成部212は、出現頻度の最も高いカテゴリのデータが、一定割合(例えば半数)になって、最も低いカテゴリのデータが0%になるようにサンプリングから排除するデータの割合を頻度の多い方から順に比率を逓減しながら、共通教師データセット222に組み込むサンプルデータをランダムに抽出する(例えば950件中450件に削減)(ステップS1801)。
Next, the common learning
さらに、共通学習モデル生成部212は、日々の運用で判定した結果が共通学習モデル221通りとは違うと判定(例えば50件)された結果は、実施例3のサンプリング回答補正方式、または実施例4のMC学習モデル補正方式で、共通教師データセット222に組み込むかどうかを判定し、その結果残ったデータ(例えば30件)は、全数共通教師データセット222に組み込むサンプルデータとして抽出する(ステップS1802)。
Further, the common learning
そして、共通学習モデル生成部212は、計算時間が許容される範囲に収まる共通教師データセット222の母数の上限をn件 (例えば10,000件)として設定し、共通データに新たに追加されるデータ(例えば450件+30件の480件)を加えると上限n件を超える場合、超える量のデータをランダムに元の共通教師データセット222から削除して、新たなデータを加え(置き換え)、再学習プロセスを回し、新たな共通学習モデル221を作成する(ステップS1803)。
Then, the common learning
図19において、新しいデータは、出現頻度が正規分布等に従って頻度が多いものから少ないものに分散することが予測される。一方、共通学習モデル221で使用する共通教師データセット222は、データ量が多いクラスに引きずられないよう、各クラス一定数に制限することが多い。この場合、追加するデータも一定数でカットする方式が良い。もともと少ないデータ(ロングテール)は、徐々に蓄積されるようそのまま加える。
In FIG. 19, it is predicted that the appearance frequencies of new data will be distributed from those with higher frequency to those with lower frequency according to a normal distribution or the like. On the other hand, the common
まず、共通学習モデル生成部212は、日々の運用のデータが一定量(例えば1,000件)蓄積されたら、判定した結果が、共通学習モデル221が予測した結果と同じだった場合(例えば950件)、カテゴリごとに出現頻度の高い順に並べる(ステップS1900)。
First, when the common learning
次に、共通学習モデル生成部212は、出現頻度が一定数(例えば20件)以上のカテゴリのデータは、一定数(例えば20件)をランダムに選んで、共通教師データセット222に組み込むサンプルデータを抽出する。一定数に満たない少数データ(ロングテールデータ)は、そのままサンプルデータとする(例えば950件中450件に削減)(ステップS1901)。
Next, the common learning
さらに、共通学習モデル生成部212は、日々の運用で判定した結果が、共通学習モデル221通りとは違うと判定(例えば50件)された結果は、実施例3のサンプリング回答補正方式、または実施例4のMC学習モデル補正方式で、共通教師データセット222に組み込むかどうかを判定し、その結果残ったデータ(例えば30件)は、全数共通教師データセット222に組み込むサンプルデータとして抽出する(ステップS1902)。
Furthermore, the common learning
そして、共通学習モデル生成部212は、計算時間が許容される範囲に収まる共通教師データセット222の母数の上限をn件(例えば10,000件)に設定し、共通教師データセット222に新たに追加されるデータ(例えば450件+30件の480件)を加えると上限n件を超える場合、超える量のデータをランダムに元の共通教師データセット222から削除して、新たなデータを加え(置き換え)、再学習プロセスを回し、新たな共通学習モデルを作成する(ステップS1903)。
Then, the common learning
なお、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。 Note that the configurations of the above-described embodiments are explained in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all of the configurations described. Further, a part of the configuration of each embodiment can be added to, deleted from, or replaced with other configurations.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。 Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be partially or entirely realized in hardware by designing, for example, an integrated circuit. Further, the present invention can also be realized by software program codes that realize the functions of the embodiments. In this case, a storage medium on which a program code is recorded is provided to a computer, and a processor included in the computer reads the program code stored on the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the embodiments described above, and the program code itself and the storage medium storing it constitute the present invention. Examples of storage media for supplying such program codes include flexible disks, CD-ROMs, DVD-ROMs, hard disks, SSDs (Solid State Drives), optical disks, magneto-optical disks, CD-Rs, magnetic tapes, A non-volatile memory card, ROM, etc. are used.
また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラムまたはスクリプト言語で実装できる。 Further, the program code for realizing the functions described in this embodiment can be implemented in a wide range of program or script languages such as assembler, C/C++, Perl, Shell, PHP, and Java (registered trademark).
さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段またはCD-RW、CD-R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。 Furthermore, by distributing the software program code that realizes the functions of the embodiment via a network, it can be stored in a storage means such as a computer's hard disk or memory, or a storage medium such as a CD-RW or CD-R. Alternatively, a processor included in the computer may read and execute the program code stored in the storage means or the storage medium.
上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。 In the above-described embodiments, the control lines and information lines are those considered necessary for explanation, and not all control lines and information lines are necessarily shown in the product. All configurations may be interconnected.
S…画像判定システム、100…モバイル端末、110…制御部、111…モバイル用画像判定部、112…撮像制御部、113…データ送受信部、114…データ収集部、120…記憶部、121…モバイル用軽量学習モデル、122…モバイル用軽量MC学習モデル、123…モバイル用MC教師データセット、130…撮像部、140…入力部、150…表示部、160、230、330…通信部、200…共通サーバ、210…共通制御部、211…共通画像判定部、212…共通学習モデル生成部、213…共通データ送受信部、214…共通データ収集部、215…共通成熟度算出部、220…共通記憶部、221…共通学習モデル、222…共通教師データセット、223…MC学習モデル、224…MC教師データセット、300…専門サーバ、310…専門制御部、311…専門画像判定部、312…専門学習モデル生成部、313…専門データ送受信部、314…専門データ収集部、315・・・専門成熟度算出部、320…専門記憶部、321…専門学習モデル、322…専門教師データセット
S... Image determination system, 100... Mobile terminal, 110... Control unit, 111... Image determination unit for mobile, 112... Imaging control unit, 113... Data transmission/reception unit, 114... Data collection unit, 120... Storage unit, 121...
Claims (8)
前記端末は、
被写体を撮像して画像を出力する撮像部と、
軽量学習モデルが格納された記憶部と、
前記画像に基づいて前記軽量学習モデルを用いて前記被写体の分類を判定する画像判定部と、
前記画像と前記画像判定部により判定された前記被写体の前記分類とを提示する表示部と、
前記提示された前記被写体の前記分類の修正または追加入力を受け入れる入力部と、
前記画像を前記共通サーバに送信し、前記分類の修正または追加入力を収集して前記記憶部に軽量マスカスタマイズ(以下、MCと省略する)教師データセットとして格納するとともに、前記分類の修正または追加入力を前記専門サーバに送信するデータ収集部と、
を有し、
前記共通サーバは、
共通学習モデル及び共通教師データセットが格納された共通記憶部と、
前記端末から送信された前記画像を用いて前記共通教師データセットを生成する共通データ収集部と、
前記共通教師データセットを用いて前記共通学習モデルを生成し、さらに、前記共通学習モデルを軽量化して前記軽量学習モデルを生成し、この軽量学習モデルを前記端末に送信する共通学習モデル生成部と
を有し、
前記専門サーバは、
専門学習モデル及び専門教師データセットが格納された専門記憶部と、
前記端末から送信された前記分類の修正または追加入力を用いて前記専門教師データセットを生成する専門データ収集部と、
前記専門教師データセットを用いて前記専門学習モデルを生成する専門学習モデル生成部と、
前記画像判定部による判定が困難な場合、前記画像に基づいて前記専門学習モデルを用いて前記被写体を判定する専門画像判定部と
を有することを特徴とする画像判定システム。 An image determination system having a terminal, a common server and a specialized server that can communicate with the terminal,
The terminal is
an imaging unit that images a subject and outputs an image;
a storage unit storing a lightweight learning model;
an image determination unit that determines the classification of the subject using the lightweight learning model based on the image;
a display unit that presents the image and the classification of the subject determined by the image determination unit;
an input unit that accepts correction or additional input of the classification of the presented subject;
Sending the image to the common server, collecting corrections or additional inputs to the classification and storing it in the storage unit as a lightweight mass customization (hereinafter abbreviated as MC) teacher data set, and correcting or adding the classification. a data collection unit that sends input to the specialized server;
has
The common server is
a common storage unit storing a common learning model and a common teacher dataset;
a common data collection unit that generates the common teacher data set using the image transmitted from the terminal;
a common learning model generation unit that generates the common learning model using the common teacher data set, further generates the lightweight learning model by reducing the weight of the common learning model, and transmits the lightweight learning model to the terminal; has
The specialized server is
a specialized storage unit in which a specialized learning model and a specialized teacher data set are stored;
a specialized data collection unit that generates the specialized teacher data set using the modification of the classification or additional input sent from the terminal;
a specialized learning model generation unit that generates the specialized learning model using the specialized teacher data set;
An image determination system comprising: a specialized image determination section that determines the subject using the specialized learning model based on the image when the image determination section has difficulty in determining the subject.
前記共通データ収集部は、前記端末から送信された前記分類の修正または追加入力を用いてMC教師データセットを生成し、
前記共通学習モデル生成部は、前記MC教師データセットを用いてMC学習モデルを生成し、さらに、前記MC学習モデルを軽量化して軽量MC学習モデルを生成し、この軽量MC学習モデルを前記端末に送信し、
前記画像判定部は前記軽量学習モデルと前記軽量MC学習モデルとを用いて前記被写体を判定する
ことを特徴とする請求項1に記載の画像判定システム。 the data collection unit transmits corrections or additional inputs to the classification to the common server;
The common data collection unit generates an MC teacher data set using the correction or additional input of the classification transmitted from the terminal,
The common learning model generation unit generates an MC learning model using the MC teacher data set, further reduces the weight of the MC learning model to generate a lightweight MC learning model, and transmits this lightweight MC learning model to the terminal. send,
The image determination system according to claim 1, wherein the image determination unit determines the subject using the lightweight learning model and the lightweight MC learning model.
前記端末から送信された前記画像に基づいて前記被写体の分類を判定する共通画像判定部と、
前記分類毎の前記共通学習モデルの量及び類似性を示す成熟度を算出する成熟度算出部と
を有し、
前記表示部は、前記画像と、前記共通画像判定部により判定された前記被写体の前記分類と、前記成熟度算出部により算出された成熟度とを提示する
ことを特徴とする請求項1に記載の画像判定システム。 The common server is
a common image determination unit that determines the classification of the subject based on the image transmitted from the terminal;
a maturity level calculation unit that calculates a maturity level indicating the amount and similarity of the common learning model for each of the classifications;
The display unit presents the image, the classification of the subject determined by the common image determination unit, and the maturity level calculated by the maturity level calculation unit. image judgment system.
前記MC教師データセット、前記MC学習モデル及び前記軽量MC学習モデルは前記端末毎に作成され、
前記共通学習モデル生成部は、特定の前記端末から前記分類の追加入力が送信された前記画像を少なくとも一つの他の前記端末に送信して前記分類の修正または追加入力を受け付け、前記特定の端末から送信された前記分類の修正または追加入力に基づいて前記共通教師データセットを修正するか否かを判定する
ことを特徴とする請求項2に記載の画像判定システム。 There are multiple terminals,
The MC teacher data set, the MC learning model, and the lightweight MC learning model are created for each terminal,
The common learning model generation unit transmits the image to which the additional input of the classification has been transmitted from the specific terminal to at least one other terminal, receives correction or additional input of the classification, and 3. The image determination system according to claim 2, wherein the image determination system determines whether or not to modify the common teacher data set based on a modification of the classification or an additional input transmitted from the system.
前記MC教師データセット、前記MC学習モデル及び前記軽量MC学習モデルは前記端末毎に作成され、
前記共通学習モデル生成部は、特定の前記端末から前記分類の追加入力が送信された前記画像を少なくとも一つの他の前記端末毎の前記MC学習モデルを用いて判定し、この判定結果に基づいて前記共通教師データセットを修正するか否かを判定する
ことを特徴とする請求項2に記載の画像判定システム。 There are multiple terminals,
The MC teacher data set, the MC learning model, and the lightweight MC learning model are created for each terminal,
The common learning model generation unit determines the image to which the additional input of the classification has been transmitted from the specific terminal using the MC learning model for each of at least one other terminal, and based on the determination result. The image determination system according to claim 2, further comprising determining whether or not to modify the common teacher data set.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020006190A JP7357551B2 (en) | 2020-01-17 | 2020-01-17 | Image judgment system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020006190A JP7357551B2 (en) | 2020-01-17 | 2020-01-17 | Image judgment system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021114097A JP2021114097A (en) | 2021-08-05 |
JP7357551B2 true JP7357551B2 (en) | 2023-10-06 |
Family
ID=77077026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020006190A Active JP7357551B2 (en) | 2020-01-17 | 2020-01-17 | Image judgment system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7357551B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4216114A4 (en) | 2021-12-07 | 2024-02-14 | Rakuten Group, Inc. | Information processing device, information processing method, and program |
WO2024009632A1 (en) * | 2022-07-07 | 2024-01-11 | コニカミノルタ株式会社 | Model generation apparatus, model generation method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019109924A (en) | 2019-02-27 | 2019-07-04 | キヤノンマーケティングジャパン株式会社 | Information processing system, information processing method, and program |
JP2019117437A (en) | 2017-12-26 | 2019-07-18 | 大日本印刷株式会社 | Article identification apparatus, article identification method and program |
WO2019150813A1 (en) | 2018-01-30 | 2019-08-08 | 富士フイルム株式会社 | Data processing device and method, recognition device, learning data storage device, machine learning device, and program |
JP2019192082A (en) | 2018-04-27 | 2019-10-31 | Awl株式会社 | Server for learning, image collection assisting system for insufficient learning, and image estimation program for insufficient learning |
-
2020
- 2020-01-17 JP JP2020006190A patent/JP7357551B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019117437A (en) | 2017-12-26 | 2019-07-18 | 大日本印刷株式会社 | Article identification apparatus, article identification method and program |
WO2019150813A1 (en) | 2018-01-30 | 2019-08-08 | 富士フイルム株式会社 | Data processing device and method, recognition device, learning data storage device, machine learning device, and program |
JP2019192082A (en) | 2018-04-27 | 2019-10-31 | Awl株式会社 | Server for learning, image collection assisting system for insufficient learning, and image estimation program for insufficient learning |
JP2019109924A (en) | 2019-02-27 | 2019-07-04 | キヤノンマーケティングジャパン株式会社 | Information processing system, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021114097A (en) | 2021-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11500818B2 (en) | Method and system for large scale data curation | |
CN111444966B (en) | Media information classification method and device | |
CN113614756A (en) | System and method for forecasting alerts with programmable human-machine hybrid ensemble learning | |
EP2885755B1 (en) | Agent system, agent control method and agent control program with ability of natural conversation with users | |
JP7357551B2 (en) | Image judgment system | |
CN111783873B (en) | User portrait method and device based on increment naive Bayes model | |
US11710065B2 (en) | Utilizing a bayesian approach and multi-armed bandit algorithms to improve distribution timing of electronic communications | |
Gonzalez | Psychometric and machine learning approaches to reduce the length of scales | |
US7240039B2 (en) | System and method for combining valuations of multiple evaluators | |
CN113360777A (en) | Content recommendation model training method, content recommendation method and related equipment | |
JP2021060982A (en) | Data analysis system diagnostic method, data analysis system optimization method, device, and medium | |
JP7318646B2 (en) | Information processing device, information processing method, and program | |
US11972443B2 (en) | Prediction model preparation and use for socioeconomic data and missing value prediction | |
JP2022076278A (en) | Model learning method, model learning system, server device, and computer program | |
Muller et al. | Implementation of machine learning in evidence syntheses in the Cluster for Reviews and Health Technology Assessments: Final report 2020-2021 | |
CN116662527A (en) | Method for generating learning resources and related products | |
JP7398944B2 (en) | Electronic album generation device, electronic album generation method and program | |
WO2017174789A1 (en) | A system and method for generating one or more statements | |
CN113870998A (en) | Interrogation method, device, electronic equipment and storage medium | |
JP7043243B2 (en) | Classification device, classification method, and program | |
CN112669003B (en) | Business coaching method and device based on artificial intelligence and computer equipment | |
EP4123518A1 (en) | Information processing device, information processing system, information processing method and program | |
WO2022137279A1 (en) | Medical facility matching system, medical facility matching method, and recording medium | |
CN113658713B (en) | Infection tendency prediction method, device, equipment and storage medium | |
JPH11353386A (en) | Nursing care information providing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7357551 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |