JP7255671B2 - 機械学習システム、情報端末、情報処理方法、プログラム - Google Patents

機械学習システム、情報端末、情報処理方法、プログラム Download PDF

Info

Publication number
JP7255671B2
JP7255671B2 JP2021506853A JP2021506853A JP7255671B2 JP 7255671 B2 JP7255671 B2 JP 7255671B2 JP 2021506853 A JP2021506853 A JP 2021506853A JP 2021506853 A JP2021506853 A JP 2021506853A JP 7255671 B2 JP7255671 B2 JP 7255671B2
Authority
JP
Japan
Prior art keywords
information
unit
machine learning
user
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021506853A
Other languages
English (en)
Other versions
JPWO2020188701A1 (ja
Inventor
健一朗 猪田
啓至 北嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020188701A1 publication Critical patent/JPWO2020188701A1/ja
Application granted granted Critical
Publication of JP7255671B2 publication Critical patent/JP7255671B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、機械学習システム、情報端末、報処理方法、及びプログラム関する。
近年、機械学習に関する技術が発展している。例えば、画像認識の機械学習に関して、特許文献1には、次の記載がある。
画像認識装置は、第1識別器による学習評価画像の識別結果を評価するとともに、第1識別器では誤識別領域を、識別が難しい小領域として選択する。そして、画像認識装置は、選択された誤識別領域を含む複数の小領域からなる領域を識別するための第2の識別器を学習する。最後に、画像認識装置は、第1識別器による識別結果と第2識別器による識別結果とを統合して、統合識別器を学習する。
特開2016-99668号公報
しかしながら、学習済モデル(特許文献1では識別器)の分類精度は、機械学習に用いるデータにも依存する。したがって、より効率的に、機械学習に用いるデータを収集することが望まれている。
そこでこの発明は、より効率的に、機械学習に用いるデータを収集できる機械学習システム、報処理方法、及びプログラム提供することを目的としている。
本発明は、上述の課題を解決すべくなされたもので、上記目的を達成するために、本発明の一態様は、第1システムは、機械学習のための目的情報を提示する提示部と、前記目的情報に対する説明情報を、ユーザから入力される入力部と、前記説明情報と前記目的情報を取得する取得部と、前記説明情報に基づく入力変数と前記目的情報に基づく出力変数のデータセット、及び、予め定められた学習済モデルに基づいて、前記説明情報による前記目的情報の分類精度についての評価を行う評価部と、前記評価に応じた報酬を、前記ユーザに対して付与する報酬付与部と、前記目的情報、前記評価の結果、及び前記報酬が関係付けられた履歴情報を生成する履歴生成部と、を備え、第2システムは、前記データセットの少なくとも1個に基づいて機械学習が行われた学習済モデルを記憶するモデル記憶部と、前記モデル記憶部が記憶する学習済モデルに基づいて、前記説明情報が入力された場合に、前記目的情報を出力する実行部と、を備える機械学習システムである。
また本発明の一態様は、機械学習のための目的情報を提示する提示部と、前記目的情報に対する説明情報を、ユーザから入力される入力部と、前記目的情報と前記説明情報を用いた評価に応じた報酬を、前記ユーザに対して付与する報酬付与部と、を備える情報端末である。
また本発明の一態様は、機械学習のための目的情報、前記目的情報に対する説明情報であってユーザから情報端末に入力された説明情報、及び、予め定められた学習済モデルに基づく評価であって、前記説明情報による前記目的情報の分類精度についての評価を行う評価部と、前記目的情報、及び前記評価の結果が関係付けられた履歴情報を生成する履歴生成部と、を備える情報処理装置である。
また本発明の一態様は、機械学習のための目的情報を、情報端末へ送信する送信部と、前記目的情報、前記目的情報に対する説明情報であってユーザから前記情報端末に入力された説明情報、及び、予め定められた学習済モデルに基づく評価であって、前記説明情報による前記目的情報の分類精度についての評価に応じて、前記ユーザに付与する報酬を決定する報酬決定部と、を備える情報処理装置である。
また本発明の一態様は、械学習のための目的情報であって情報端末に提示された目的情報に基づく入力変数と、前記目的情報に対する説明情報であってユーザから前記情報端末に入力された説明情報に基づく入力変数と、のデータセットの少なくとも1個に基づいて、学習が行われた学習済モデルをモデル記憶部から読み出し、前記学習済モデルに基づいて、前記説明情報が入力された場合に、前記目的情報を出力する実行部と、を備える情報処理装置である。
また本発明の一態様は、機械学習のための目的情報を提示し、前記目的情報に対する説明情報を、ユーザから入力され、前記目的情報と前記説明情報を用いた評価に応じた報酬を、前記ユーザに対して付与する、情報処理方法である。
また本発明の一態様は、機械学習のための目的情報と、前記目的情報に対する説明情報であってユーザから情報端末に入力された説明情報と、を取得し、前記説明情報に基づく入力変数と前記目的情報に基づく出力変数のデータセット、及び、予め定められた学習済モデルに基づいて、前記説明情報による前記目的情報の分類精度についての評価を行い、前記目的情報、及び前記評価の結果が関係付けられた履歴情報を生成する、情報処理方法である。
また本発明の一態様は、機械学習のための目的情報を、情報端末へ送信し、前記目的情報、前記目的情報に対する説明情報であってユーザから前記情報端末に入力された説明情報、及び、予め定められた学習済モデルに基づく評価であって、前記説明情報による前記目的情報の分類精度についての評価に応じて、前記ユーザに付与する報酬を決定する、情報処理方法である。
また本発明の一態様は、機械学習のための目的情報であって情報端末に提示された目的情報に基づく入力変数と、前記目的情報に対する説明情報であってユーザから前記情報端末に入力された説明情報に基づく入力変数と、のデータセットの少なくとも1個に基づいて、機械学習が行われた学習済モデルをモデル記憶部から読み出し、前記学習済モデルに基づいて、前記説明情報が入力された場合に、前記目的情報を出力する、情報処理方法である。
また本発明の一態様は、情報処理装置のコンピュータに、情報端末のコンピュータに、機械学習のための目的情報を提示させる提示手順、前記目的情報に対する説明情報を、ユーザから入力される入力手順、前記目的情報と前記説明情報を用いた評価に応じた報酬を、前記ユーザに対して付与させる報酬付与手順、を実行させるためのプログラムである。
また本発明の一態様は、情報処理装置のコンピュータに、機械学習のための目的情報と、前記目的情報に対する説明情報であってユーザから情報端末に入力された説明情報と、を取得させる取得手順、前記説明情報に基づく入力変数と前記目的情報に基づく出力変数のデータセット、及び、予め定められた学習済モデルに基づいて、前記説明情報による前記目的情報の分類精度についての評価を行わせる評価手順、前記目的情報、及び前記評価の結果が関係付けられた履歴情報を生成させる履歴生成手順、を実行させるためのプログラムである。
また本発明の一態様は、情報処理装置のコンピュータに、機械学習のための目的情報を、情報端末へ送信する送信手順、前記目的情報、前記目的情報に対する説明情報であってユーザから前記情報端末に入力された説明情報、及び、予め定められた学習済モデルに基づく評価であって、前記説明情報による前記目的情報の分類精度についての評価に応じて、前記ユーザに付与する報酬を決定する報酬決定手順、を実行させるためのプログラムである。
また本発明の一態様は、情報処理装置のコンピュータに、機械学習のための目的情報であって情報端末に提示された目的情報に基づく入力変数と、前記目的情報に対する説明情報であってユーザから前記情報端末に入力された説明情報に基づく入力変数と、のデータセットの少なくとも1個に基づいて、機械学習が行われた学習済モデルをモデル記憶部から読み出させ、前記学習済モデルに基づいて、前記説明情報が入力された場合に、前記目的情報を出力させる実行手順を実行させるためのプログラムである。
また本発明の一態様は、機械学習のための目的情報であって情報端末に提示された目的情報に基づく入力変数と、前記目的情報に対する説明情報であってユーザから前記情報端末に入力された説明情報に基づく入力変数と、のデータセットの少なくとも1個に基づいて、機械学習が行われた学習済モデルであって、前記説明情報が入力された場合に、前記目的情報を出力する学習済モデルである。
また本発明の一態様は、機械学習のための目的情報であって情報端末に提示された目的情報に基づく入力変数と、前記目的情報に対する説明情報であってユーザから前記情報端末に入力された説明情報に基づく入力変数と、のデータセットの少なくとも1個を取得し、前記データセットの少なくとも1個に基づいて機械学習を行うことで、学習済モデルを生産する、学習済モデルを生産する方法である。
本発明によれば、より効率的に、機械学習に用いるデータを収集できる。
本発明の一実施形態に係る画面フローの一例を表す概要図である。 本実施形態に係る機械学習システムの構成例を示す概略図である。 本実施形態に係る機械学習システムでの処理の流れの一例を示すシーケンス図である。 本実施形態に係るサービス設定画面の一例を表す概略図である。 本実施形態に係るサービス管理画面の一例を表す概略図である。 本実施形態に係る管理サーバの構成を示す概略ブロック図である。 本実施形態に係る注文テーブルの一例を示す概略図である。 本実施形態に係る注文学習テーブルの一例を示す概略図である。 本実施形態に係る注文料金テーブルの一例を示す概略図である。 本実施形態に係るゲーム設定テーブルの一例を示す概略図である。 本実施形態に係る学習設定テーブルの一例を示す概略図である。 本実施形態に係るゲーム状況テーブルの一例を示す概略図である。 本実施形態に係る収集状況テーブルの一例を示す概略図である。 本実施形態に係る収集管理テーブルの一例を示す概略図である。 本実施形態に係るサービスログの一例を示す概略図である。 本実施形態に係る管理サーバの処理の一例を示すフロー図である。 本実施形態に係る携帯端末の構成を示す概略ブロック図である。 本実施形態に係るゲームサーバの構成を示す概略ブロック図である。 本実施形態に係るゲーム制御部と管理アプリ制御部の構成を示す概略ブロック図である。 本実施形態に係るゲーム制御部と管理アプリ制御部の処理の一例を示すシーケンス図である。 本実施形態に係る報酬選択テーブルの一例を示す概略図である。 本実施形態に係る学習サーバの構成を示す概略ブロック図である。 本実施形態に係る学習サーバの処理の一例を示すフロー図である。 本実施形態に係る機械学習における実行手順を説明する説明図である。 本実施形態に係る機械学習における学習手順を説明する説明図である。 本実施形態に係る認識率改善値の算出処理を説明する説明図である。 本実施形態に係る評価値テーブルの一例を示す概略図である。 本実施形態に係る人工知能サーバの構成を示す概略ブロック図である。 本実施形態に係る制御機器の構成を示す概略ブロック図である。 本実施形態に係る装置のハードウェア構成の一例を示す概略図である。 本実施形態に係る画面フローの別の一例を表す概要図である。 本実施形態に係る画面フローの別の一例を表す概要図である。 本実施形態に係る画面フローの別の一例を表す概要図である。 本実施形態に係る画面フローの別の一例を表す概要図である。 本実施形態に係る画面の別の一例を表す概要図である。 本実施形態に係る画面フローの別の一例を表す概要図である。
以下、図面を参照しながら本発明の一実施形態について詳しく説明する。
<画面フロー>
図1は、本発明の一実施形態に係る画面フローの一例を表す概要図である。
この図は、図2の携帯端末2-1~2-N(各々を「携帯端末2」とも称する。「情報端末」の一例)が表示する画面フローである。この画面フローは、携帯端末2にインストールされたゲームのモバイルアプリケーション(「ゲームアプリ」とも称する)によって、携帯端末2のディスプレイに表示される。
そのゲームアプリは、対戦型ゲームのゲームアプリである。その対戦型ゲームにおいて、イベントが発生し、各イベントにおいて、ゲームキャラクタ同士の対戦が行われる。
画面G11には、対戦キャラクタG111が表示されている。対戦キャラクタG111は、ユーザが操作するゲームキャラクタ(「操作キャラクタ」とも称する)と対戦するキャラクタである。
領域G112には、対戦キャラクタG111を攻撃する画像のクラス(「目的情報」の一例)として、猫、チーズ、及び、自動車が表示されている。クラスとは、画像を分類(識別も含む)する情報であり、例えば、画像に描画された被写体(「オブジェクト」の一例)の称呼である。つまり、画面G11は、ユーザに対して、対戦キャラクタG111を攻撃するためには、猫、チーズ又は自動車の画像を提供すべきことを表している。
ボタンBT11がユーザにタッチされた場合、携帯端末2は、カメラを起動し、写真を撮影可能な画面(例えば図36の画面Ga12)を表示する。この画面では、ユーザは、撮影ボタンをタップ(タッチ)することで、静止画又は動画を撮影することができる。
ボタンBT12がユーザにタッチされた場合、携帯端末2は、携帯端末2のフォルダ内のファイルを選択可能な画面(図示せず)を表示する。この画面では、ユーザは、画像ファイルを選択することができる。ユーザが撮影をした後、又は、ユーザがファイルを選択した後、携帯端末2は、画面G12を表示する。
画面G12には、画像G121(「説明情報」の一例)が表示されている。画像G121は、ユーザが撮影した画像、又は、ユーザが選択した画像ファイルの画像である。
プルダウンメニューG122には、画像G121のクラスの候補として、猫、チーズ、及び、自動車が表示されている。ユーザは、プルダウンメニューG122を用いて、猫、チーズ、又は自動車のいずれか1つを選択することができる。つまり、携帯端末2は、プルダウンメニューG122を用いて、画面G11で提示したクラスのうち、ユーザがどのクラスを選択させる。ユーザが選択したクラスを確定クラスとも称する。
ボタンBT13は、画像G121と確定クラスを用いて、操作キャラクタに対戦相手G111を攻撃させるボタンである。ボタンBT13がユーザにタッチされた場合、携帯端末2は、画面G13を表示する。
画面G13では、対戦キャラクタG111は、操作キャラクタから攻撃を受けている。画像G131は、画像G121の評価(「認識評価」とも称する)として、評価の高い画像である旨(「GREAT Picture」)を表す画像である。認識評価は、画像G121によるクラスの分類精度についての評価である。例えば、認識評価は、この画像G121と確定クラスを用いて機械学習が行われることで、その学習済モデルによる画像の認識率(「モデル認識率」とも称する)が向上する場合には、評価が高くなる。一方、認識評価は、モデル認識率が低下する場合には、評価が低くなる。認識評価の詳細については、後述する(図26参照)。
画像G132は、対戦キャラクタG111のヒットポイント(「報酬」又は「ゲームでの変数」の一例)から、300ポイントを差し引かれたことを表している。ヒットポイントは、その値がゼロになった場合に、そのキャラクタが倒された(負けた)ことになるデータである。一方、画像G133は、操作キャラクタのヒットポイントに、100ポイントが加えられたことを表している。例えば、画像G134では、ヒットポイントが、画面G11の136ポイントに、100ポイントが加えられて、236ポイントになったことを表している。
このように、携帯端末2は、ユーザが提供した画像G121の認識評価に応じて、対戦キャラクタG111又は操作キャラクタのヒットポイントの増減(「ゲームでの変数の更新」の一例)を行う。ユーザは、画像を提供することで、対戦キャラクタG111を倒し、対戦に勝利することができる。対戦キャラクタG111を倒した場合、携帯端末2は、画面G14を表示する。
画面G12には、対戦に勝利した結果、ユーザに付与されたカードG141(「報酬」又は「ゲームオブジェクト」の一例)が表示されている。このカードG141は、希少価値の高い「スーパーレア」(「SR」とも称する)のカードであり、認識評価で評価が高い場合に付与される。なお、ゲームアプリにおいて、カードは、操作キャラクタ、アイテム、特殊効果の発生、ゲームでの変数の更新等に用いられる。
以上のように、携帯端末2は、画面G11にて、機械学習のためのクラスを表示する(領域G112)。携帯端末2は、提示したクラスに対する画像G121を、ユーザから入力される。携帯端末2は、クラス(プルダウンメニューG122で選択された確定クラス)と画像G121に応じた報酬(ヒットポイントの増減、カード)を、ユーザに対して付与する。
これにより、携帯端末2は、クラスと画像G121のデータセットを、機械学習に用いるデータとして、ユーザから収集できる。ユーザは、クラスを指定された上で、簡易な操作で画像を提供できるので、携帯端末2は、効率的に機械学習に用いるデータを収集できる。また、ユーザは、認識評価に応じた報酬が付与されるので、認識評価で評価が高くなる画像を提供する。この場合、携帯端末2は、モデル認識率が高くなる画像を、機械学習に用いるデータとして収集できる。
なお、ゲームアプリは、スマートフォン等に搭載される汎用のオペレーティングシステム(「OS」とも称する)上で実行される。ゲームアプリは、モバイルアプリケーション(「アプリ」とも称する)を配信するアプリケーションストアから、インターネットを介してダウンロードされる。アプリケーションストアは、アプリに対応したタウンロードディストリビューションプラットフォームである。つまり、ゲームアプリは、携帯端末の一般的なOSで動作させることができ、アプリケーションストアが配信されるので、一般的なユーザに幅広く利用されることができる。ただし、ゲームアプリは、特定のウェブサイトやデータフォルダからダウンロードされてもよいし、ローカルネットワークやパーソナルコンピュータを介してダウンロードされてもよい。
<機械学習システム>
図2は、本実施形態に係る機械学習システムSysの構成例を示す概略図である。
機械学習システムSysは、データ収集システムSysA(「第1システム」の一例)、及び、複数の人工知能システムSysB-1~SysB-M(「第2システム」の一例。各々を「人工知能システムSysB」とも称する)を含んで構成される。
データ収集システムSysAは、管理サーバ1、携帯端末2-1~2-N、ゲームサーバ3、及び学習サーバ4を具備する。管理サーバ1と端末T1は、ローカルネットエリアワークL1を介して接続さている。管理サーバ1と、ゲームサーバ3及び学習サーバ4とは、ローカルエリアネットワークL1とインターネットNWを介して接続されている。ゲームサーバ3と学習サーバ4は、インターネットNWを介して接続されている。携帯端末2とゲームサーバ3は、インターネットNWと基地局装置BSを介して、接続されている。
人工知能システムSysB-mは、人工知能サーバ5-m(「人工知能サーバ5」とも称する)、及び制御機器6-m(「制御機器6」とも称する)を具備する(m=1~M)。人工知能システムSysBは、機械学習の結果の学習済モデルを用いて、サービスを提供するシステムである。制御機器6-1は、携帯端末であり、ユーザから入力された画像に対し、クラスを表示する。制御機器6-2は、ロボットアームであり、被搬送物を撮影した画像に応じて、アームの動作を制御する。制御機器6-Mは、品質管理装置であり、検査対象物を撮影した画像に応じて、検査対象物が正常であるか異常があるかを判定する。
人工知能サーバ5-1と制御機器6-1は、インターネットNWと基地局装置BSを介して、接続されている。人工知能サーバ5-2と制御機器6-2は、ローカルエリアネットワークL2を介して、接続されている。人工知能サーバ5-Mと制御機器6-Mは、直接、接続されている。なお、機械学習システムSysは、複数の人工知能システムSysBを備えず、1個の人工知能システムSysBを備えてもよいし、人工知能システムSysBは、1個の装置(筐体)であってもよい。
機械学習システムSysでは、ゲームサーバ3は、機械学習のためのクラスを、各携帯端末2へ送信する。各携帯端末2は、ユーザに対して、クラスを表示する。各携帯端末2は、クラスに対する画像を、ユーザから入力される。各携帯端末2は、入力されたクラスと画像のデータセットをゲームサーバ3に送信する。学習サーバ4は、各携帯端末2からゲームサーバ3を介して、そのデータセットを取得する。学習サーバ4は、取得したデータセット、及び、予め定められた学習済モデルに基づいて、認識評価を行う。ゲームサーバ3は、認識評価に応じた報酬を、ユーザに対して付与する。
学習サーバ4は、上記の繰り返しによって、複数のデータセット(「収集データセット」とも称する)を収集する。各人工知能サーバ5は、収集データセットの少なくとも1個に基づいて機械学習が行われた学習済みモデル(「追加学習済モデル」とも称する)を記憶する。各人工知能サーバ5は、追加学習済モデルに基づいて、画像が入力された場合に、クラスを出力する。
これにより、機械学習システムSysは、多数のユーザから、機械学習に用いるデータとして、クラスと画像のデータセットを収集できる。機械学習システムSysは、少数のユーザからデータセットを取得する場合と比較して、多数のデータセット又は多様なデータセットを取得でき、より効率的に、機械学習に用いるデータを収集できる。
<機械学習システムでの処理>
図3は、本実施形態に係る機械学習システムSysでの処理の流れの一例を示すシーケンス図である。である。なお、シーケンスは、これに限られるものではなく、各処理の順序が変わっていてもよいし、複数の処理を並列して行ってもよい。
(ステップS101)端末T1は、管理者から、注文情報が入力される。注文情報は、機械学習に用いるデータ(クラスと画像のデータセット)の収集を依頼する情報である。注文情報には、依頼元を示す依頼元情報が含まれる。依頼元は、管理者がデータの収集を依頼された依頼主体であり、例えば、人工知能システムSysBを提供する企業である。端末T1は、注文情報を管理サーバ1へ送信する。
(ステップS102)人工知能サーバ5は、人工知能システムSysBで利用している学習済モデルの設定(「基準モデル設定」とも称する)及び基準データセットを、管理サーバ1へ送信する。
ここで、基準モデル設定には、データセットの収集前の機械学習プログラムが含まれる。機械学習プログラムは、データセットを用いて機械学習を行うことで、学習済モデルを生成するアプリケーションプログラムである。機械学習プログラムは、例えば、CNN(畳み込みニューラルネットワーク)のプログラムである。
基準データセットとは、認識評価に用いられるデータセットであって、画像とその画像の被写体のクラス(分類上、正しいクラス)のセットである。例えば、基準データセットでは、猫の画像に対して、正しく「猫」のクラスが対応付けられている。
(ステップS103)管理サーバ1は、ステップS101の注文情報、ステップS102の基準モデル設定及び基準データセットに基づいて、学習設定を生成する。学習設定は、認識評価を行うための設定であり、端末T1のサービス設定画面(図4)を用いて設定される。学習設定には、機械学習プログラムや基準データセットが含まれる。管理サーバ1は、生成した学習設定を学習サーバ4へ送信する。
(ステップS104)管理サーバ1は、ステップS101の注文情報に基づいて、ゲーム設定を生成する(図4参照)。ゲーム設定は、ゲームアプリにおいて、機械学習に用いるデータを収集するための設定であり、端末T1のサービス設定画面(図4)を用いて設定される。管理サーバ1は、クラスが含まれるゲーム設定をゲームサーバ3へ送信する。
(ステップS111)ゲームサーバ3と携帯端末2は、ユーザ操作に基づいて、ゲームを進行する。
(ステップS112)ゲームサーバ3は、ゲームの進行中に、ステップS104のゲーム設定を参照する。ゲームサーバ3は、そのゲーム設定のクラスを含む画像要求を、携帯端末2へ送信する。
(ステップS113)携帯端末2は、ステップS112の画像要求に含まれるクラスを表示する(図1の画面G11)。携帯端末2は、表示したクラスに対して、ユーザから入力された画像を取得する(画面G12)。携帯端末2は、そのクラス(確定クラス)と取得した画像のデータセットを含む応答を、ゲームサーバ3へ送信する。
(ステップS114)ゲームサーバ3は、ステップS113の応答に含まれるデータセットを、評価要求として、学習サーバ4へ送信する。
(ステップS115)学習サーバ4は、ステップS114の評価要求を参照し、データセットの画像に対して、認識評価を行う。ここで、学習サーバ4は、ステップS103の学習設定を参照し、その学習設定の基準モデル設定と基準データセットを用いて、認識評価を行う。学習サーバ4は、認識評価の評価結果をゲームサーバ3へ送信する。
(ステップS116)ゲームサーバ3は、ステップS115の評価結果に応じて、ヒットポイントやカード等の報酬を決定する。ゲームサーバ3は、決定した報酬を、携帯端末2へ送信する。携帯端末2は、受信した報酬を、S113で画像を入力したユーザに対して付与する(図1の画面G13、G14)。
(ステップS117)ゲームサーバ3は、ゲームログを学習サーバ4へ送信する。ゲームログは、図15のサービスログの項目うち、ゲームサーバ3で収集されるデータである。
(ステップS118)学習サーバ4は、ステップS117のゲームログに、ステップS115の認識評価で算出したモデル認識率等を、識別情報として追加することで、サービスログ(図15)を生成する。学習サーバ4は、サービスログを管理サーバ1へ送信する。
以上のステップS111からステップS118の処理S11は、同一又は他の携帯端末2(同一又は他のユーザ)に対して、複数回、行われる。例えば、1000個のデータセットを収集する場合、処理S11は、少なくとも1000回は行われる。
(ステップS121)管理サーバ1は、複数回の処理S11によって収集した収集データセットを要求する条件(「学習情報要求条件」とも称する)を充足した場合、追加学習情報要求を、学習サーバ4へ送信する。
(ステップS122)学習サーバ4は、収集データセットを用いて、基準モデル設定の学習済モデルに対して機械学習を行う。学習サーバ4は、この学習の結果、追加学習済モデルを生成する。この追加学習済モデルを、「追加学習情報」とも称する。学習サーバ4は、追加学習情報と収集データセットを、管理サーバ1へ送信する。
(ステップS123)管理サーバ1は、ステップS122で受信した追加学習済モデルと収集データセットを、人工知能サーバ5へ送信することで納品する。なお、この納品は、人手を介して行われてもよい。例えば、人間は、追加学習済モデル又は収集データセットを記憶媒体に記憶させて運搬し、記憶媒体から人工知能サーバ5へ複製してもよい。
(ステップS124)管理サーバ1は、ステップS101の注文情報に基づいて請求情報を生成し、請求情報は、注文情報の依頼元へ送信される。依頼元は、請求情報の料金を支払うことで、決済が完了する。
以上の図3のシーケンス図の処理は、1個の注文ごとに行われる。機械学習システムSysは、1又は複数の依頼元から、複数の注文を、同時期又は異なる時期に受注できる。収集データセットは、注文情報の単位(注文IDごと)に収集される。
<サービス設定画面>
図4は、本実施形態に係るサービス設定画面の一例を表す概略図である。
サービス設定画面G2は、注文情報表示G21、及び、設定情報表示G22から構成される。注文情報表示G21は、注文情報を、管理者に参照させる表示である。設定情報表示G22は、学習設定及びゲーム設定を、管理者に参照、更新させる表示である。
なお、サービス設定画面G2は、管理サーバ1によって注文ごと(端末T1から入力された注文IDごと)に生成され、端末T1のアプリケーションによって表示される。
注文情報表示G21は、注文基本表示G211、注文学習表示G212、及び注文料金表示G213から構成される。注文情報表示G21には、依頼元から注文された情報が表示される。
注文基本表示G211には、注文ID、依頼元、依頼日、納品先、納品期限、及び納品状況が表示されている。注文IDは、注文を識別する識別子であり、注文ごとに管理サーバ1によって生成される。
注文学習表示G212には、基準モデル、基準モデル設定、基準データセット、注文クラス設定、及び注文データ収集条件が表示されている。基準モデルは、基準モデルの名称とその種類を示す情報である。注文クラス設定は、注文されたクラス設定である。クラス設定は、クラスを選択する設定である。注文データ収集条件は、データを収集する収集の期間、件数、認識率(モデル認識率)、報酬の条件であり、注文された設定である。
注文料金表示G213には、料金(料金設定)が表示されている。例えば、料金は、向上した認識率(モデル認識率)、データセットの総件数(データ数)、利用者数、参照数、対戦キャラクタ、ヒットポイント、付与した報酬に応じた料金である。これらの料金設定に基づいて、上述の請求情報が生成される。
設定情報表示G22は、ゲーム設定表示G221、学習設定表示G222、及び報酬設定表示G223から構成される。設定情報表示G22のタイトル部分には、サービスIDが表示されている。サービスIDは、各注文に対するサービスを識別する識別子であり、注文ごとに管理サーバ1によって生成される。
ゲーム設定表示G221には、ゲーム情報、イベント情報、及び対戦キャラクタが表示されている。ゲーム情報は、ゲームアプリを識別するゲームID、及びゲームアプリの名称である。イベント情報は、イベントを識別するイベントID、及びイベントの名称である。対戦キャラクタは、対戦キャラクタを識別する対戦キャラクタID、及び対戦キャラクタの画像である。ゲーム設定表示G221の設定は、管理者がボタンBT21をクリックして、情報を入力することで更新(新規に設定又は変更)される。
学習設定表示G222には、学習サーバ情報、クラス設定、及びデータ収集条件が表示されている。学習サーバ情報は、学習サーバを識別する識別情報であり、学習サーバのURI(Uniform Resource Identifier)やサーバ名である。クラス設定及びデータ収集条件には、注文クラス設定及び注文データ設定が複製される。クラス設定及びデータ収集条件は、それぞれ、ボタンBT22、BT23をクリックすることで、管理者が更新できる。
学習設定表示G222には、クラス設定として、自動でモデル認識率が低いクラスを選択すること、及び、依頼元が指定したクラスを選択すること、が表示されている。学習設定表示G222には、モデル認識率が低いクラスとして、モデル認識率が低い順に「チーズ」及び「自動車」が選択され、依頼元が指定したクラスとして「猫」が選択されていることが表示されている。この場合、依頼元が指定したクラス、モデル認識率が低いクラス(低い方が先)の順で、優先順位が付され、第1クラスに「猫」、第2クラスに「チーズ」、第3クラスに「自動車」が設定される。なお、図1の領域G112及びプルダウンメニューG12には、この順序で、クラスが表示されている。
学習設定表示G222には、データ収集条件として、収集の期間、件数、認識率(モデル認識率)、報酬の条件が表示されている。件数の条件は、収集されたデータセットの合計件数に基づく条件であり、例えば、収集データセットの合計件数が閾値(1000件)以内である。つまり、収集データセットの合計件数が閾値を超えた場合、収集が終了される設定である。認識率の条件は、モデル認識率に基づく条件であり、例えば、モデル認識率が閾値(90%)以内である。つまり、モデル認識率が閾値を超えた場合、収集が終了される設定である。報酬の条件は、報酬に基づく条件であり、例えば、スーパーレアのカードを付与する枚数が閾値(1000枚)以内である。つまり、スーパーレアのカードの付与数が閾値を超えた場合、収集が終了される設定である。
報酬設定表示G223には、報酬設定として、選択された報酬が表示される。報酬設定表示G223には、スーパーレアのカードを付与すること、及び、ヒットポイントについて対戦キャラクタから300ポイントを差し引き、ユーザの操作キャラクタに100ポイントを加えること、が表示されている。
報酬設定は、ボタンBT24をクリックすることで、管理者が更新できる。例えば、管理者は、ゲームオブジェクトの種類(種別)を選択できる。ゲームオブジェクトとは、ゲームに用いられるオブジェクトであって、例えば、カード、コイン、アイテム、キャラクタ、又はプレゼント等である。また管理者は、ゲームオブジェクトの種類として、カードの場合、レアリティを更新できる。また管理者は、ゲームでの変数について、報酬の対象となる変数やその変数値を更新できる。ゲームでの変数には、例えば、レベル、能力(攻撃力や守備力等)、マジックポイント、クリティカルヒット等の確率、カードや特殊効果等の出現確率、チームレベル、ライフ等がある。
ボタンBT25がクリックされた場合、サービス設定画面G2に表示された情報が設定される。例えば、注文学習表示G212及び学習設定表示G222に表示された情報は、学習設定として、管理サーバ1及び学習サーバ4に設定される。ゲーム設定表示G221及び報酬設定表示G223に表示された情報は、ゲーム設定として、管理サーバ1及びゲームサーバ3に設定される。
なお、注文データ収集条件、料金設定、イベント情報、対戦キャラクタ、データ収集条件、又は報酬設定は、クラスごとに設定されてもよいし、クラスごとに、複数の内容や条件が設定されてもよい。
<サービス管理画面>
図5は、本実施形態に係るサービス管理画面G3の一例を表す概略図である。
サービス管理画面G3は、サービス状況表示G31、クラス状況表示G32、注文基本表示G331、及びゲーム設定表示G332から構成される。サービス状況表示G31及びクラス状況表示G32は、ゲーム状況情報や収集状況情報(「サービス状況情報」とも称する)を、管理者に参照させる表示である。クラス状況表示G32は、クラスごとにサービス状況情報を参照させ、サービス状況表示G31は、サービス全体のサービス状況情報を参照させる表示である。注文基本表示G331及びゲーム設定表示G332の各項目は、注文基本表示G211ゲーム設定表示G221の各項目と同じであるので、説明を省略する。なお、サービス管理画面は、管理サーバ1によって注文ごと(入力された注文IDごと)に生成され、端末T1のアプリケーションによって表示される。
サービス状況表示G31には、サービスID、及び、サービス状況(全体)としての認識率、対戦数、成功数、失敗数、及びデータセット数が表示されている。認識率は、クラスごとのモデル認識率の平均値である。対戦数、成功数、失敗数、及び、データセット数は、全クラス(第1クラス、第2クラス、第3クラス)のものを合算した合計値である。
対戦数は、設定された対戦キャラクタと各ユーザの操作キャラクタが対戦した回数である。成功数は、取得したデータセットで、モデル認識率が上がった回数である。失敗数は、取得したデータセットで、モデル認識率が下がった回数である。データセット数は、データセットを取得した回数であり、成功数と失敗数の合計値となる。対戦数、成功数、失敗数、及び、データセット数は、予め定めた時間単位(例えば1時間)ごとの回数も算出され、サービス状況表示G31に表示される。
ボタンBT31がクリックされた場合、ゲームサーバ3及び学習サーバ4は、表示されている注文についてサービスを停止する。例えば、ゲームサーバ3は、設定されているイベントIDを削除し、設定された対戦キャラクタを登場させなくする。
ボタンBT32又はボタンBT33がクリックされた場合、追加学習情報要求が学習サーバ4へ送信され(図3のステップS121)、追加学習情報又は収集データセットが管理サーバ1へ送信される(図3のステップS122)。
サービス状況表示G31は、第1クラス状況表示G321、第2クラス状況表示G322、及び第3クラス状況表示G323から構成される。第1クラス状況表示G321、第2クラス状況表示G322、及び第3クラス状況表示G323は、それぞれ、第1クラス、第2クラス、及び第3クラスのゲームの利用状況やデータの収集状況が表示されている。
サービス状況表示G31は、クラスごとに、認識率(モデル認識率)、対戦数、成功数、失敗数、データセット数、及び報酬数が表示されている。報酬数は、報酬ごとの報酬の付与回数である。ボタンBT34がクリックされた場合、追加学習情報要求が学習サーバ4へ送信され(図3のステップS121)、第1クラスの収集データセットが管理サーバ1へ送信される(図3のステップS122)。ボタンBT35がクリックされた場合、ゲームサーバ3及び学習サーバ4は、第1クラスについてサービスを停止する。例えば、ゲームサーバ3は、機械学習のためのクラスとして、第1クラスの表示を削除する(図1参照)。ボタンBT36、BT37は第2クラスについて、ボタンBT38、BT39は第2クラスについて、それぞれ、ボタンBT35、BT36と同様の機能を有する。
<管理サーバの構成>
図6は、本実施形態に係る管理サーバ1の構成を示す概略ブロック図である。
管理サーバ1は、入出力部I1、記憶部M1、及び制御部P1を含んで構成される。
入出力部I1は、通信部111を含んで構成される。記憶部M1は、注文情報記憶部121、ゲーム設定記憶部122、学習設定記憶部123、状況情報記憶部124、収集情報記憶部125、及びサービスログ記憶部126を含んで構成される。制御部P1は、注文管理部131、設定更新部132、ゲーム設定部133、学習設定部134、サービス管理部135、及び納品管理部136を含んで構成される。
<データ>
(注文テーブル、注文学習テーブル、注文料金テーブル:注文情報)
図7は、本実施形態に係る注文テーブルの一例を示す概略図である。
注文テーブルは、注文基本表示G211(図4)の生成に用いられる。注文テーブルでは、注文ID、依頼元、依頼日、納品期限、納品情報、納品日、注文学習ID、注文料金ID、及びサービスIDの各項目が対応付けられている。注文テーブルは、注文IDを主キーとして、注文情報のうち、注文基本情報がレコードとして格納される。
納品情報は、納品物(追加学習情報又は収集データセット)や納品先を示す情報である。納品先には、例えば、人工知能サーバ5のURIが格納される。また、ある注文IDの注文に対して、管理者等が納品物を納品した場合、その注文IDのレコードの納品日に日付が入力される。納品日に日付がない場合は、納品状態が未納品であり、納品日に日付がない場合は、納品状態が納品済みである。
注文学習ID及び注文料金IDは、それぞれ、注文学習テーブル及び注文料金テーブルと関連付けるための識別子であり、管理サーバ1によって生成される。注文学習ID及び注文料金IDは、それぞれ、注文学習テーブル及び注文料金テーブルと注文テーブルを関連付けるための識別子であり、管理サーバ1によって生成される。サービスIDは、学習設定テーブル、ゲーム設定テーブル、状況管理テーブル、及び収集管理テーブルと注文テーブルを関連付ける。
図8は、本実施形態に係る注文学習テーブルの一例を示す概略図である。
注文学習テーブルは、注文料金表示G213(図4)の生成に用いられる。注文学習テーブルでは、注文学習ID、基準モデル設定、基準データセット、注文クラス設定、及び注文データ収集条件の各項目が対応付けられている。注文学習テーブルは、注文学習IDを主キーとして、注文情報のうち、注文学習情報がレコードとして格納される。
基準モデル設定及び基準データセットには、それぞれ、基準モデル設定及び基準データセットの格納先のURIが格納される。
図9は、本実施形態に係る注文料金テーブルの一例を示す概略図である。
注文料金テーブルは、注文料金表示G213(図4)の生成に用いられる。注文学習テーブルでは、注文料金ID、認識率単価、データ数単価、利用者数単価、対戦キャラクタ加算、パラメータ単価、及び報酬加算の各項目が対応付けられている。注文料金テーブルは、注文料金IDを主キーとして、注文情報のうち、注文料金情報がレコードとして格納される。
注文学習テーブルの各項目は、注文料金表示G213に表示される料金設定の単価である。パラメータ単価は、ヒットポイントについての単価の例を示したが、他のゲームでの変数ごとに、単価が設定されてもよい。
(ゲーム設定テーブル:ゲーム設定)
図10は、本実施形態に係るゲーム設定テーブルの一例を示す概略図である。
ゲーム設定テーブルは、ゲーム設定表示G221及び学習設定表示G222(図4)の生成に用いられ、また、ゲーム設定表示G221及び学習設定表示G222に表示された内容で更新される。
ゲーム設定テーブルでは、サービスID、ゲーム_データ収集条件、設定クラス、ゲームID、イベントID、対戦キャラクタID、報酬ID、及び関連サーバの各項目が対応付けられている。ゲーム設定テーブルは、サービスIDを主キーとして、ゲーム設定がレコードとして格納される。ゲーム_データ収集条件は、データ収集条件のうち、ゲームサーバ3に設定される条件である。ゲーム_データ収集条件は、報酬の条件である。クラス設定には、第1クラス、第2クラス、第3クラス(図4の例の場合、「猫」、「チーズ」、「自動車」)が格納されている。報酬IDは、報酬を識別する識別子であり、報酬設定ごとに生成される関連サーバには、管理サーバ1、ゲームサーバ3、及び学習サーバ4のURIが格納される。
(学習設定テーブル:学習設定)
図11は、本実施形態に係る学習設定テーブルの一例を示す概略図である。
学習設定テーブルは、学習設定表示G222(図4)の生成に用いられ、また、学習設定表示G222に表示された内容で更新される。
学習設定テーブルでは、サービスID、学習_データ収集条件、設定クラス、基準学習設定、基準データセット、及び関連サーバの各項目が対応付けられている。学習設定テーブルは、サービスIDを主キーとして、学習設定がレコードとして格納される。
学習_データ収集条件は、データ収集条件のうち、学習サーバ4に設定される条件である。学習_データ収集条件は、収集の期間、件数、モデル認識率の条件である。関連サーバには、管理サーバ1、ゲームサーバ3、及び学習サーバ4のURIが格納される。
(ゲーム状況テーブル、収集状況テーブル:状況情報)
図12は、本実施形態に係るゲーム状況テーブルの一例を示す概略図である。
ゲーム状況テーブルは、サービス管理画面G3(図5)の生成に用いられる。
ゲーム状況テーブルでは、サービスID、ゲーム状況、第1クラスゲーム状況、第2クラスゲーム状況、第3クラスゲーム状況、及びゲーム報告設定の各項目が対応付けられている。ゲーム状況テーブルは、サービスIDを主キーとして、ゲーム状況情報がレコードとして格納される。
ゲーム状況には、サービス状況(全体)としての対戦数、成功数、失敗数、及びこれらの時間変化が格納される。第1クラスゲーム状況、第2クラスゲーム状況、及び第3クラスゲーム状況には、それぞれ、第1クラス、第2クラス、及び第3クラスについて、対戦数、成功数、失敗数、及びこれらの時間変化が格納される。ゲーム報告設定は、ゲーム状況情報を報告する設定であり、報告先(管理サーバ1)のURIや報告タイミングが格納されている。
図13は、本実施形態に係る収集状況テーブルの一例を示す概略図である。
収集状況テーブルは、サービス管理画面G3(図5)の生成に用いられる。
収集状況テーブルでは、サービスID、収集状況、第1クラス収集状況、第2クラス収集状況、第3クラス収集状況、及び収集報告設定の各項目が対応付けられている。収集状況テーブルは、サービスIDを主キーとして、収集状況情報がレコードとして格納される。
収集状況には、サービス状況(全体)としてのモデル認識率及びデータセット数、及びこれらの時間変化が格納される。第1クラス収集状況、第2クラス収集状況、及び第3クラス収集状況には、それぞれ、第1クラス、第2クラス、及び第3クラスについて、モデル認識率及びデータセット数、及びこれらの時間変化が格納される。収集報告設定は、収集状況情報を報告する設定であり、報告先(管理サーバ1)のURIや報告タイミングが格納されている。
(収集管理テーブル:追加学習情報、収集データセット)
図14は、本実施形態に係る収集管理テーブルの一例を示す概略図である。
収集管理テーブルは、追加学習情報及び収集データセットの管理に用いられる。
収集状況テーブルでは、サービスID、追加学習情報、第1クラスデータセット、第2クラスデータセット、第3クラスデータセット、及び取得日時の各項目が対応付けられている。収集管理テーブルは、サービスIDを主キーとして、収集情報がレコードとして格納される。追加学習情報には、追加学習情報のURIが格納される。第1クラスデータセット、第2クラスデータセット、及び第3クラスデータセットには、それぞれ、第1クラス、第2クラス、及び第3クラスの収集データセットのURIが格納される。
(サービスログ)
図15は、本実施形態に係るサービスログの一例を示す概略図である。
サービスログは、ユーザID、日時、サービスID、モデル情報、確定クラス、データセット、認識情報、ゲームID、イベントID、対戦キャラクタID、及び報酬IDを含んで構成される。サービスログは、認識評価を行ったときの履歴である。
ユーザIDは、ユーザを識別する識別子である。ユーザIDは、データを収集するサービスでのユーザIDであるが、ゲームでユーザを識別するユーザIDであってもよい。モデル情報は、認識評価に用いた学習済モデルの識別情報である。認識情報は、モデル認識率、認識率改善値、及び認識評価値である。データセットは、ユーザから入力されたクラス(確定クラス)と画像のデータセットである。
図15のサービスログは、「ユーザID」のユーザから、「日時」の日時に、「サービスID」のサービスで「モデル情報」の示す学習モデルに対して、「データセット」のクラスと画像のデータセットが入力され、このデータセットは、認識評価で「認識情報」のモデル認識率、認識率改善値、及び認識評価値となったことを示す。また、このデータセットは、「ゲームID」のゲームの「イベントID」のイベントにおいて、「対戦キャラクタID」の対戦キャラクタとの対戦で入力され、ユーザに対して「報酬ID」の報酬が付与されたことを示す。
<管理サーバ1の処理>
図16は、本実施形態に係る管理サーバ1の処理の一例を示すフロー図である。
以下、図6を参照して、管理サーバ1の各部の処理を説明する。
なお、管理サーバ1の各部は、他の装置と、通信部111を介して通信する。
(ステップS201)注文管理部131は、端末T1から注文情報を取得する。注文管理部131は、人工知能サーバ5から基準モデル設定及び基準データセットを取得する。注文管理部131は、注文情報を、注文情報記憶部121の注文テーブル、注文学習テーブル、注文料金テーブルに記憶させる。
(ステップS202)設定更新部132は、ステップS201の注文情報に基づいて、サービス設定画面G2を生成して、端末T1に表示させる。設定更新部132は、管理者からの入力に基づいて、ゲーム設定及び学習設定を更新する。ここで、設定更新部132は、クラス設定で「自動」が選択されている場合、例えば認識率の低いクラスを決定する。
(ステップS203)ゲーム設定部133は、ステップS202で更新されたゲーム設定を、ゲーム設定記憶部122のゲーム設定テーブルに記憶させるとともに、ゲームサーバ3へ送信する。
(ステップS204)学習設定部134は、ステップS202で更新された学習設定を、学習設定記憶部123の学習設定テーブルに記憶させるとともに、学習サーバ4へ送信する。
(ステップS205)サービス管理部135は、学習サーバ4から、サービスログを取得し、サービスログ記憶部126に記憶させる。サービス管理部135は、ゲームサーバ3からゲーム状況情報を取得し、状況情報記憶部124のゲーム状況テーブルに記憶させる。サービス管理部135は、学習サーバ4から収集状況情報を取得し、状況情報記憶部124の学習状況テーブルに記憶させる。
(ステップS206)サービス管理部135は、学習情報要求条件を充足するか否かを判定する。学習情報要求条件は、例えば、管理者が、図5のボタンBT32、BT33、BT34、BT35、又は、BT38をクリックするという条件である。また、学習情報要求条件は、例えば、学習設定のデータ収集条件を充足するという条件である。学習情報要求条件が充足されない場合、サービス管理部135は、ステップS205とステップS206の処理を継続する。
(ステップS207)学習情報要求条件が充足された場合、サービス管理部135は、追加学習情報要求を学習サーバ4へ送信する。サービス管理部135は、学習サーバ4から、追加学習情報と収集データセットを取得し、フォルダに保存する。サービス管理部135は、保存先のURIを、収集情報記憶部125の収集管理テーブルに記憶させる。
(ステップS208)納品管理部136は、管理者からの納品指示により、ステップS206で取得した追加学習情報と収集データセットを、納品情報の納品先(例えば、人工知能サーバ5)へ送信する。納品管理部136は、注文テーブルの注文情報の納品日に日付を書き込む。なお、納品管理部136は、管理者から納品日が入力された場合、その日付を納品日に書き込んでもよい。
(ステップS209)サービス管理部135は、ステップS205で取得したサービスログを集計し、ゲーム状況情報及び収集状況情報と併せて分析する。
<携帯端末とゲームサーバ>
図17は、本実施形態に係る携帯端末2の構成を示す概略ブロック図である。
携帯端末2は、入出力部I2、記憶部M2、及び制御部P2を含んで構成される。
入出力部I2は、通信部211、入力部212、出力部213、撮像部214、及びセンサ部215を含んで構成される。記憶部M2は、オペレーション記憶部221、ゲーム記憶部222、及びデータ記憶部223を含んで構成される。制御部P2は、オペレーション部231、ゲーム制御部232、撮影制御部233、情報閲覧部234、ファイル管理部235、及び表示制御部236を含んで構成される。
通信部211は、通信モジュールで実現され、他の装置と通信を行う。
入力部212は、タッチパネルやソフトウェアキーボードで実現され、ユーザからの入力を受け付ける。入力部212は、マイクや物理的なボタンで実現され、ユーザから、声や押下による入力を受け付ける。
出力部213は、ディスプレイで実現され、画像(文字を含む)を表示する。出力部213は、スピーカ、ライト又は振動子で実現され、音、光又は振動による出力を行う。
撮像部214は、カメラで実現され、撮像素子で撮影した画像(動画を含む)をデジタルデータ(画像ファイル)として記録する。
センサ部215は、GPS(全地球測位システム)、加速度センサ、ジャイロセンサ、又は照度センサ等のセンサで実現され、装置の状態又は装置の周囲環境(ユーザの状態を含む)を測定し、測定結果のデータを保存する。
オペレーション部231は、オペレーション記憶部221にインストールされたOSによって、コンピュータのオペレーションを行う。オペレーション部231は、オペレーション記憶部221にデータを読み書きすることで、オペレーションを行う。
ゲーム制御部232は、ゲーム記憶部222にインストールされたゲームアプリによって、ゲームを制御する。ゲーム制御部232は、ゲーム記憶部222にデータを読み書きすることで、ゲームを制御する。ゲーム制御部232の詳細は、後述する。
撮影制御部233は、撮像部214を用いて撮影を行うアプリケーションである。撮影制御部233は、ゲーム制御部232からAPI(アプリケーションプログラミングインタフェース)を呼び出され、動作する。撮影制御部233は、撮像部214で撮影した画像について、その画像ファイルをデータ記憶部223に記憶させる。
情報閲覧部234は、ウェブブラウザである。情報閲覧部234は、ゲーム制御部232からAPIを呼出され、ウェブ(例えば、インターネット)上のファイルを、ユーザに閲覧させる。また、情報閲覧部234は、画像の送受信が可能なアプリである。情報閲覧部234は、画像ファイルを、ダウンロードしてデータ記憶部223に記憶させる。
ファイル管理部235は、ファイルブラウザである。ファイル管理部235は、ゲーム制御部232からAPIを呼出され、記憶部M2に記憶されているファイルを、ユーザに閲覧させる。
表示制御部236は、制御部P2の各部からの映像データに従って、映像信号を生成し、出力部213に画像を表示させる。
なお、撮影制御部233、情報閲覧部234、及びファイル管理部235は、ユーザからの入力により直接動作するアプリであってもよい。
図18は、本実施形態に係るゲームサーバ3の構成を示す概略ブロック図である。
ゲームサーバ3は、入出力部I3、記憶部M3、及び制御部P3を含んで構成される。
入出力部I3は、通信部311を含んで構成される。記憶部M3は、オペレーション記憶部321、及び管理アプリ記憶部322を含んで構成される。制御部P3は、オペレーション部331、及び管理アプリ制御部332を含んで構成される。
通信部311は、通信モジュールで実現され、他の装置と通信を行う。
オペレーション部331は、オペレーション記憶部321にインストールされたOSによって、コンピュータのオペレーションを行う。オペレーション部331は、オペレーション記憶部321にデータを読み書きすることで、オペレーションを行う。
管理アプリ制御部332は、管理アプリ記憶部322にインストールされた管理アプリケーションによって、携帯端末2のゲームを制御する。管理アプリ制御部332は、管理アプリ記憶部322にデータを読み書きすることで、ゲームを制御する。管理アプリ制御部332の詳細は、後述する。
図19は、本実施形態に係るゲーム制御部232と管理アプリ制御部332の構成を示す概略ブロック図である。
ゲーム制御部232は、イベント管理部2321、クラス提示部2322、画像取得部2323、データセット提供部2324、変数値更新部2325、及び報酬付与部2326を含んで構成される。管理アプリ制御部332は、イベント通知部3321、クラス管理部3322、データセット受信部3323、判定部3324、報酬決定部3325、及びログ生成部3326を含んで構成される。
図20は、本実施形態に係るゲーム制御部232と管理アプリ制御部332の処理の一例を示すシーケンス図である。
以下、図17、図18、図19を参照して、ゲーム制御部232と管理アプリ制御部332の各部の処理を説明する。なお、管理アプリ制御部332は、管理サーバ1から受信したゲーム設定(図10)を、管理アプリ記憶部322に記憶させる。
(ステップS301)イベント通知部3321は、管理アプリ記憶部322に記憶されたゲーム設定を読み出し、ゲーム設定のサービスID、ゲームID、イベントID及び対戦キャラクタIDを、ゲーム制御部232へ通知する。
(ステップS302)イベント管理部2321は、ステップS301で通知されたゲームIDのゲームにおいて、対戦キャラクタIDに対応するアイコンを、表示制御部236に表示させる。このアイコンがユーザにタップされた場合、イベント管理部2321は、サービスIDを、管理アプリ制御部332へ通知する。
(ステップS303)クラス管理部3322は、ステップS302で通知されたサービスIDに対して、ゲーム設定で対応する設定クラスを参照する。クラス管理部3322は、参照した設定クラスとして、第1クラス、第2クラス、第3クラスを、ゲーム制御部232へ通知する。
(ステップS304)クラス提示部2322は、ステップS303で通知された設定クラスを、表示制御部236に表示させる。例えば図1では、表示制御部236は、画面G11(出力部213)の領域G112に、第1クラス(猫)、第2クラス(チーズ)、及び第3クラス(自動車)を表示させている。
(ステップS305)ユーザが撮影を選択した場合、画像取得部2323は、撮影制御部233を呼出して、ユーザに撮影させる。ユーザは、ステップS304で表示された設定クラスのオブジェクトを、撮影する。画像取得部2323は、撮影制御部233が撮影した画像を取得する。例えば図1では、ユーザは、画面G11でボタンBT11をタップし、画面G12の画像G121を撮影している。
なお、ユーザがボタンBT11をタップした場合、画像取得部2323は、ファイル管理部235を呼出して、ユーザに画像ファイルを選択させる。画像取得部2323は、ファイル管理部235で選択された画像を取得する。
(ステップS306)データセット提供部2324は、ユーザにクラスを選択させる表示を、表示制御部236に表示させる。例えば図1では、表示制御部236は、画面G12(出力部213)に、第1クラス(猫)、第2クラス(チーズ)、又は第3クラス(自動車)のいずれか1個を選択させるプルダウンメニューG122を、表示させている。ユーザがクラスを選択した場合、データセット提供部2324は、選択されたクラスを、確定クラスとする。
(ステップS307)データセット提供部2324は、ステップS305で取得された画像と、ステップS306で選択された確定クラスと、をデータセットとして、管理アプリ制御部332へ送信する。
(ステップS308)データセット受信部3323は、ステップS307で送信されたデータセットを受信する。
(ステップS309)判定部3324は、ステップS308で受信されたデータセットを、認識評価を要求する評価要求として、学習サーバ4へ送信する。判定部3324は、認識評価の評価結果として、学習サーバ4から、認識率改善値を受信する。認識率改善値は、モデル認識率の改善具合を10段階で評価した値(後述する図27)である。
(ステップS310)報酬決定部3325は、ステップS309で受信された認識率改善値に応じて、ユーザに付与する報酬を決定する(「報酬決定処理」とも称する)。報酬決定処理については、後述する(図20参照)。
(ステップS311)変数値更新部2325は、ステップS301で決定された報酬のうち、ゲームでの変数(ヒットポイント)を更新する。変数値更新部2325は、更新の結果を表示制御部236に表示させる。例えば図1では、表示制御部236は、画面G13(出力部213)に、画像G132(マイナス300ポイント)と画像G133(プラス100ポイント)を表示せている。
(ステップS312)報酬付与部2326は、ステップS301で決定された報酬のうち、ゲームオブジェクト(カード)を付与する。報酬付与部2326は、付与の結果を表示制御部236に表示させる。例えば図1では、表示制御部236は、画面G14(出力部213)に、カードG141を表示させている。
(ステップS311)ログ生成部3326は、ゲームログ(図15参照)を生成し、管理サーバ1へ送信する。具体的には、ログ生成部3326は、ユーザの「ユーザID」、ステップステップS309で認識率改善値を受信した「日時」、ステップS307の「データセット」(確定クラスと画像)を、ゲームログとして記録する。また、ログ生成部3326は、ステップS302で通知された「サービスID」に対応する「ゲームID」、「イベントID」、「対戦キャラクタID」、及び、ステップS301で決定された報酬の「報酬ID」を、ゲームログに記録する。ログ生成部3326は、記録したゲームログを、学習サーバ4へ送信する。また、ログ生成部3326は、サービスID及び設定クラスごとに、対戦数、成功数、失敗数、及びこれらの時間変化を算出することで、ゲーム状況情報を生成する。ログ生成部3326は、ゲーム報告設定に従って、管理サーバ1へ送信する。
(報酬決定処理)
報酬決定部3325が行う報酬決定処理について、説明する。
報酬決定部3325は、報酬選択テーブル(図21)を参照し、認識率改善値に対する報酬を、ユーザに付与する報酬とする。
図21は、本実施形態に係る報酬選択テーブルの一例を示す概略図である。
報酬選択テーブルは、管理アプリ記憶部322に記憶され、報酬決定処理に用いられる。報酬選択テーブルは、サービス設定画面G2(図4)からの入力で更新されてもよい。
報酬選択テーブルでは、サービスID、認識評価値、対象変数、変数値、付与条件、及びゲームオブジェクトの各項目が対応付けられている。報酬選択テーブルは、サービスIDと認識評価値を主キーとして、報酬選択情報がレコードとして格納される。
対象変数は、報酬として更新されるゲームでの変数である。変数値は、更新後の変数の値または変数の値の変化である。付与条件はゲームオブジェクトを付与する条件である。報酬は、認識評価値が高い程、つまり、モデル認識率が高くなる程、より良い報酬が設定されている。逆に、報酬は、認識評価値が低い程、つまり、モデル認識率が低くなる程、より悪い報酬が設定されている。
より良い報酬とは、操作キャラクタの変数値がより高く上がる報酬、対戦キャラクタの変数値がより低く下がる報酬、ゲームオブジェクトが付与される報酬、又は、より高いレアリティのゲームオブジェクトが付与される報酬である。より悪い報酬とは、操作キャラクタの変数値がより低く下がる報酬、対戦キャラクタの変数値がより高く上がる報酬、ゲームオブジェクトが付与されない報酬、又は、より低いレアリティのゲームオブジェクトが付与される報酬である。
報酬決定部3325は、管理アプリ記憶部322に記憶された報酬選択テーブルを用いることで、認識評価値に応じて報酬を決定する。具体的には、報酬決定部3325は、認識評価値が高くなるほど、報酬を、より良い報酬に決定する。逆に、報酬決定部3325は、認識評価値が低くなるほど、報酬を、より悪い報酬に決定する。
なお、認識評価値は、モデル認識率が高くなる程、又は認識率改善値が増加する程、高い値となる。逆に、認識評価値は、モデル認識率が低くなる程、又は認識率改善値が減少する程、低い値となる。認識率改善値とは、データセットによる学習後の学習済モデルのモデル認識率から、学習前の学習済モデルのモデル認識率を差し引いた値である。
図22は、本実施形態に係る学習サーバ4の構成を示す概略ブロック図である。
学習サーバ4は、入出力部I4、記憶部M4、及び制御部P4を含んで構成される。
入出力部I4は、通信部411を含んで構成される。記憶部M4は、サービスIDごとに、学習設定記憶部421、基準記憶部422、収集データ記憶部423、及び収集ログ記憶部424を含んで構成される。図22では、説明の簡便のため、特定のサービスIDについての学習サーバ4の構成が示されている。制御部P4は、学習設定部431、データ取得部432、学習部433、評価部434、及び報告部435を含んで構成される。
収集データ記憶部423は、追加学習済モデル記憶部4231、第1データセット記憶部4232、第2データセット記憶部4233、及び第3データセット記憶部4234を含んで構成される。
<学習サーバ>
図23は、本実施形態に係る学習サーバ4の処理の一例を示すフロー図である。
以下、図22を参照して、学習サーバ4の各部の処理を説明する。
なお、学習サーバ4の各部は、他の装置と、通信部411を介して通信する。
(ステップS401)学習設定部431は、管理サーバ1から送信された学習設定(図11)を受信し、学習設定記憶部421に記憶させる。学習設定部431は、その学習設定の機会学習プログラムを設定する。このとき設定された機会学習プログラムの学習済モデルを「基準学習済モデル」とも称する。
(ステップS402)学習設定部431は、学習設定の基準データセットを、学習設定記憶部421に記憶させる。学習設定部431は、ステップS401で設定された基準学習済モデルに基準データセットの画像を入力することで、基準データセットのクラスについてのモデル認識率(「基準認識率」とも称する)を算出する。例えば、猫の画像と「猫」が基準データセットの場合、学習設定部431は、その猫の画像を入力し、出力されたクラスごとの確率のうち、画像が「猫」である確率を、基準認識率として算出する。
学習設定部431は、算出した基準認識率を、基準認識率として、基準記憶部422に記憶させる。ここで、学習設定部431は、クラスごとに、少なくとも1対の基準データセットに基づいて基準認識率を算出して、基準記憶部422に記憶させる。
(ステップS403)データ取得部432は、ゲームサーバ3から送信された評価要求(図3のステップS114、図20のステップS309)を受信し、ユーザから入力されたデータセットを取得する。データ取得部432は、取得したデータセットを収集データ記憶部423に記憶させる。なお、データ取得部432は、例えば、確定クラスが「猫」、「チーズ」、「自動車」の場合、それぞれ、第1データセット記憶部、第2データセット記憶部、第3データセット記憶部に記憶させる。
(ステップS404)学習部433は、ステップS403で取得されたデータセットを用いて、機会学習プログラムに、ステップS401で設定された基準学習済モデルに対して、さらなる機械学習を行わせる。この機械学習によって、機会学習プログラムが生成した学習済モデルを、「評価学習済モデル」とも称する。
(ステップS405)評価部434は、評価学習済モデルに、データセットの確定クラスの基準データセットの画像を入力することで、モデル認識率(「評価認識率」とも称する)を算出する。評価部434は、算出した評価認識率から基準認識率を差し引いた値を、認識率改善値として算出する。
(ステップS406)評価部434は、評価値テーブルを用いて(図27参照)、算出した認識率改善値に応じた認識評価値を決定する。評価部434は、決定した認識評価値を、ステップS403の評価要求への応答として返信する。
ステップS404からステップS406までの評価処理についての詳細は、後述する。
(ステップS407)報告部435は、ゲームサーバ3から送信されたログ(図3のステップS117、図20のステップS313)を受信する。報告部435は、受信したログに、認識情報としてモデル認識率、認識率改善値、及び認識評価値を追加することで、サービスログを生成する。報告部435は、生成したサービスログを収集ログ記憶部424に記憶させるとともに、管理サーバ1へ送信する(図15参照)。また、報告部435は、サービスID及び設定クラスごとに、モデル認識率及びデータセット数、及びこれらの時間変化を算出することで、収集状況情報を生成する。報告部435は、収集報告設定に従って、管理サーバ1へ送信する。
(ステップS408)報告部435は、学習設定の「学習_データ収集条件」の条件を充足するか否かを判定する。その条件が充足されている場合、制御部P4は、ステップS403からS407の処理を繰り返す。
一方、その条件が充足されない場合、制御部P4は、データセットの収集を終了する。この場合、報告部435は、ゲームサーバ3に、終了する対象のサービスIDを通知し、サービスIDに対応するイベントIDのイベントを終了させる。
特定のクラス(「終了クラス」とも称する)のみについての条件が充足されない場合、制御部P4は、その終了クラスについてのデータセットの収集を終了する。報告部435は、ゲームサーバ3に、終了する対象のサービスID及び終了クラスを通知し、例えば、サービスIDに対応するイベントIDのイベントで、終了クラスの表示を削除させる。この場合、その他のクラスについて、制御部P4は、ステップS403からS407の処理を繰り返す。
(ステップS408)管理サーバから追加学習情報要求を受信した場合、学習部433は、第1データセット記憶部4232、第2データセット記憶部4233、及び第3データセット記憶部4234に記憶されたデータセット(収集データセット)を読み出す。学習部433は、読み出した収集データセットを用いて、機会学習プログラムに、基準学習済モデルに対して機械学習を行わせる。この機械学習によって、機会学習プログラムは、追加学習済モデルを生成する。報告部435は、追加学習済モデルの追加学習情報及び収集データセットを、追加学習情報要求への応答として、管理サーバ1へ送信する。
追加学習情報には、例えばCNN等のニューラルネットワークの場合、追加学習済モデルの重み係数が含まれる。
<評価処理>
以下、制御部P4が行う評価処理について、詳細を説明する。次の例は、学習設定のモデル種別が「CNN」の場合の例である。
学習部433は、ユーザから入力されたデータセットから、画像と確定クラスを抽出する。学習部433は、学習用のCNNに対して、画像の画素値を入力層に入力する入力変数とし、確定クラスを出力層から出力される出力変数として設定する。なお、出力変数は、確定クラスに対応付けられた数値や分類であってもよい。
[CNNについて]
図24は、本実施形態に係る機械学習における実行手順を説明する説明図である。
この図において、CNNは、L個の層L0~L4から構成される。層L1は入力層、層L2~層L3は中間層或いは隠れ層、層L4は出力層とも呼ばれる。
CNNは、入力層L0に、入力画像が入力される。入力画像は、入力画像の垂直方向の位置と水平方向の位置を、行列の位置とする画素行列D11で表される。画素行列D11の各要素は、行列の位置に対応する画素のサブ画素値として、R(赤)のサブ画素値、G(緑)のサブ画素値、B(青)サブ画素値が入力されている。
1番目の中間層L1は、畳み込み処理(フィルター処理とも呼ばれる)とプーリング処理が行われる層である。
(畳み込み処理)
中間層L1の畳み込み処理の一例について説明する。畳み込み処理は、元の画像にフィルタをかけて特徴マップを出力する処理である。
具体的には、入力された画素値は、それぞれ、Rのサブ画素行列D121、Bのサブ画素行列D122、Gのサブ画素行列D123に分けられる。各サブ画素行列D121、D122、D123(各々を「サブ画素行列D12」とも称する)は、それぞれ、s行t列の部分行列ごとに、その部分行列の各要素とs行t列のコンボリューション行列CM1(カーネルとも呼ばれる)の要素が乗算されて加算されることで、第1画素値が算出される。各サブ画素行列D12で算出された第1画素値は、それぞれ、重み係数を乗算されて加算されることで、第2画素値が算出される。第2画素値は、部分行列の位置に対応する行列要素として、畳込画像行列D131の各要素に設定される。各サブ画素行列D12において部分行列の位置が要素(サブ画素)ごとにずらされることで、各位置での第2画素値が算出され、畳込画像行列D131の全ての行列要素が算出される。
例えば、図24は3行3列のコンボレーション行列CM1の場合の一例であり、畳込画素値D1311は、各サブ画素行列D12の2行目から4行目、かつ、2列目から4列目までの4行4列の部分行列について第1画素値が算出される。各サブ画素行列D121、D122、D123の第1画素値に、重み係数が算出されて加算されることで、畳込画像行列D131の2行目2列目の行列要素として、第2画素値が算出される。同様に、3行目から5行目、かつ、2列目から4列目の部分行列から、畳込画像行列D131の3行目2列目の行列要素の第2画素値が算出される。
また同様に、他の重み付け係数又は他のコンボリューション行列を用いて、畳込画像行列D132、・・・が算出される。
(プーリング処理)
中間層L1のプーリング処理の一例について説明する。プーリング処理は、画像の特徴を残しながら画像を縮小する処理である。
具体的には、畳込画像行列D131は、u行v列の領域PMごとに、領域内の行列要素の代表値が算出される。代表値は、例えば、最大値である。その代表値は、領域の位置に対応する行列要素として、CNN画像行列D141の各要素に設定される。畳込画像行列D131において領域が、領域PMごとにずらされることで、各位置での代表値が算出され、畳込画像行列D131の全ての行列要素が算出される。
例えば、図24は2行2列の領域PMの場合の一例であり、畳込画像行列D131の3行目から4行目、かつ、3列目から4列目までの2行2列の領域について、領域内の第2画素値のうち最大値が、代表値として算出される。この代表値は、CNN画像行列D141の2行目2列目の行列要素に設定される。同様に、5行目から6行目、かつ、2列目から4列目の部分行列から、CNN画像行列D141の3行目2列目の行列要素の代表値が算出される。また同様に、畳込画像行列D132、・・・から、CNN画像行列D142、・・・が算出される。
CNN画像行列D141、D142、・・・の各行列要素(N個)は、予め定められた順序で並べられることで、ベクトルxが生成される。図24では、ベクトルxの要素x(n=1、2、3、・・・N)は、N個のノードで表されている。
中間層L2は、第i番目の中間層(i=2~L-1)の中間層を表している。第i目の中間層のノードからは、ベクトルu(i)が関数f(u(i))に入力された値として、ベクトルz(i)が出力される。ベクトルu(i)は、第i-1目の中間層のノードから出力されるベクトルz(i-1)に、重み行列W(i)を左から乗算し、ベクトルb(i)を加算したベクトルである。関数f(u(i))は、活性化関数であり、ベクトルb(i)は、バイアスである。またベクトルu(0)は、ベクトルxである。
出力層L4のノードはz(L-1)であり、その出力は、M個のy(m=1、2、・・・M)である。つまり、CNNの出力層からは、yを要素とするベクトルy(=(y、y、y、・・・y))が出力される。
以上により、CCNは、入力変数として入力画像の画素値が入力された場合に、出力変数としてベクトルyを出力する。ベクトルyは、クラスごとの認識率を表す。
図25は、本実施形態に係る機械学習における学習手順を説明する説明図である。
この図において、図24のCNNが機械学習を行う場合の説明図である。
データセットの画像の画素値に対して、第1番目の中間層から出力されたベクトルxをベクトルXとする。データセットの確定クラスを表すベクトルをベクトルYとする。
重み行列W(i)には、初期値が設定される。入力画像が入力層に入力され、その結果、第2番目の中間層にベクトルXが入力された場合、出力層からベクトルXに応じたベクトルy(X)が出力される。ベクトルy(X)とベクトルYの誤差Eは、損失関数を用いて計算される。第i層の勾配ΔEは、各層からの出力zと誤差信号δを用いて計算される。誤差信号δは、誤差信号δi-1を用いて計算される。なお、このように、出力層側から入力層側へ誤差信号を伝えていくことは、逆伝搬とも呼ばれる。
重み行列W(i)は、勾配ΔEに基づいて更新される。同様に、第1番目の中間層においても、コンボリューション行列CM又は重み係数が更新される。
[基準学習済モデルの設定]
学習設定部431は、CNNの場合、層数、各層のノード数、各層間のノードの結合方式、活性化関数、誤差関数、及び勾配降下アルゴリズム、プーリングの領域、カーネル、重み係数、重み行列を設定する。
学習設定部431は、例えば、層数として、4層(L=3)を設定する。ただし、本発明はこれに限らず、総数は、5層以上であってもよい。学習設定部431は、各層のノードの数(「ノード数」とも称する)として、ベクトルxの要素数(ノード数N)に800、第2番目の中間層(i=2)のノード数に500、出力層(i=3)に10を設定する。ただし、ノード数には、別の値が設定されてもよい。
学習設定部431は、20個の5行5列のコンボリューション行列CMをし、2行2列の領域PMを設定する。ただし、本発明はこれに限らず、別の行列数又は別の個数のコンボリューション行列CMが設定されてもよい。また、別の行列数の領域PMが設定されてもよい。
学習設定部431は、より多くの畳み込み処理又はプーリング処理を行ってもよい。
学習設定部431は、ニューラルネットワークの各層の結合として、全結合を設定する。ただし、本発明はこれに限らず、一部或いは全ての層の結合は、非全結合に設定であってもよい。学習設定部431は、活性化関数として、全ての層の活性化関数にシグモイド関数を設定する。ただし、本発明はこれに限らず、各層の活性化関数は、ステップ関数、線形結合、ソフトサイン、ソフトプラス、ランプ関数、切断冪関数、多項式、絶対値、動径基底関数、ウェーブレット、maxout等、他の活性化関数であってもよい。また、ある層の活性化関数は、他の層とは異なる種類であってもよい。
学習設定部431は、誤差関数として、二乗損失(平均二乗誤差)を設定する。ただし、本発明はこれに限らず、誤差関数は、交差エントロピー、τ-分位損失、Huber損失、ε感度損失(ε許容誤差関数)であってもよい。また、学習設定部431は、勾配を計算するアルゴリズム(勾配降下アルゴリズム)として、SGD(確率的勾配降下)を設定する。ただし、本発明はこれに限らず、勾配降下アルゴリズムには、Momentum(慣性項) SDG、AdaGrad、RMSprop、AdaDelta、Adam(Adaptive moment estimation)等が用いられても良い。
学習設定部431は、畳み込みニューラルネットワーク(CNN)に限らず、パーセプトロンのニューラルネットワーク、再起型ニューラルネットワーク(RNN)、残差ネットワーク(ResNet)等の他のニューラルネットワークを設定してもよい。また、学習設定部431は、決定木、回帰木、ランダムフォレスト、勾配ブースティング木、線形回帰、ロジスティック回帰、又は、SVM(サポートベクターマシン)等の教師あり学習の学習済モデルを一部或いは全部に設定してもよい。
[評価処理]
学習部433は、上記CNNを用いた学習の結果、重み行列w(i)コンボリューション行列CM又は重み係数が更新されたCNNを、評価学習済みモデルとして取得する。
評価部434は、基準データセットの画像の画素値を、評価学習済みモデルに入力することで、その出力として評価認識率を取得する。評価部434は、算出した評価認識率から基準認識率を差し引いた値を、認識率改善値として算出する。
図26は、本実施形態に係る認識率改善値の算出処理を説明する説明図である。
この図は、確定クラスが「猫」のとき、図23の処理が行われた場合の説明図である。
ステップS402の処理で、基準データセットの画像に対して、基準学習済モデルでの基準認識率は、「猫」の「89%」である。
ステップS404の処理で、ユーザから入力されたデータセットを用いて、基準学習済モデルに対して機械学習が行われた結果、「評価学習済モデル」が生成される。
ステップS405では、基準データセットの画像に対して、「評価学習済モデル」での基準認識率は、「猫」の「90.2%」である。
この場合、クラス「猫」での認識率改善値は、1.2%(90.2%-89%)と算出される。
図27は、本実施形態に係る評価値テーブルの一例を示す概略図である。
評価部434は、基準記憶部422に記憶されている評価値テーブルを用いて、認識率改善値に応じた認識評価値を決定する。なお、評価値テーブルは、サービス設定画面G2(図4)からの入力で更新されてもよい。
評価値テーブルでは、サービスID、認識率改善値、及び認識評価値の各項目が対応付けられている。認識評価値は、サービスIDと認識率改善値を主キーとして、評価値情報がレコードとして格納される。
認識評価値は、認識率改善値が高くなる程、高い値が設定されている。逆に、認識評価値は、認識率改善値が低くなる程、低い値が設定されている。
なお、認識率改善値と認識評価値の関係は、サービスIDごとに、異なる関係を設定できる。例えば、同じデータセットでも、異なる基準モデル設定(基準学習済モデル)では、通常、認識率改善値は異なる。本実施形態では、サービスIDごとに認識率改善値と認識評価値の関係を設定できるので、機械学習システムSysは、基準モデル設定が異なる場合(サービスIDも異なる)でも、異なる関係を設定できる。これにより、機械学習システムSysは、認識評価での認識率改善値の算出基準が変わってしまう場合でも、ユーザに対して、基準の違いを吸収して、報酬を付与することができる。
<人工知能サーバ5と制御機器6>
図28は、本実施形態に係る人工知能サーバ5の構成を示す概略ブロック図である。
人工知能サーバ5は、入出力部I5、記憶部M5及び制御部P5を含んで構成される。
入出力部I5は、通信部511を含んで構成される。記憶部M5は、オペレーション記憶部521、及びアプリ記憶部522を含んで構成される。制御部P5は、オペレーション部531、機器制御部532、及び学習部533を含んで構成される。
通信部511は、通信モジュールで実現され、他の装置と通信を行う。
オペレーション部531は、オペレーション記憶部521にインストールされたOSによって、コンピュータのオペレーションを行う。オペレーション部531は、オペレーション記憶部521にデータを読み書きすることで、オペレーションを行う。
機器制御部532は、アプリ記憶部522にインストールされたアプリケーションによって、制御機器6を制御する。機器制御部532は、管理サーバ1から納品された追加学習済モデルを、アプリ記憶部522に記憶させる。機器制御部532は、制御機器6から入力された画像を、この追加学習済モデルに入力し、出力されたクラスを用いて、制御機器6を制御する。
なお、学習部533は、他のデータセットを用いて、追加学習済モデルに対して、さらなる機械学習を行ってもよい。また、学習部533は、管理サーバ1から納品された収集データセットの一部或いは全部を用いて、他の学習済モデル(例えば、基準学習済モデル)に対して、機械学習を行ってもよい。
図29は、本実施形態に係る制御機器6の構成を示す概略ブロック図である。
制御機器6は、入出力部I6、記憶部M6、及び制御部P6を含んで構成される。
入出力部I6は、通信部611、入力部612、出力部613、撮像部614、センサ部615、及び駆動部616の一部或いは全部を含んで構成される。記憶部M6は、オペレーション記憶部621、及びアプリ記憶部622を含んで構成される。制御部P6は、オペレーション部631、アプリ制御部632、及び撮影制御部633を含んで構成される
通信部611は、通信モジュールで実現され、他の装置と通信を行う。
入力部612は、タッチパネルやソフトウェアキーボードで実現され、ユーザからの入力を受け付ける。入力部612は、マイクや物理的なボタンで実現され、ユーザから、声や押下による入力を受け付ける。
出力部613は、ディスプレイで実現され、画像(文字を含む)を表示する。出力部613は、スピーカ、ライト又は振動子で実現され、音、光又は振動による出力を行う。
撮像部614は、カメラで実現され、撮像素子で撮影した画像(動画を含む)をデジタルデータ(画像ファイル)として記録する。
センサ部615は、GPS、加速度センサ、ジャイロセンサ、照度センサ、赤外線センサ、温度センサ、姿勢センサ等のセンサで実現され、装置の状態又は装置の周囲環境を測定し、測定結果のデータを保存する。
駆動部616は、ロボットアームのアーム部や把持部等の動作機器、空調や調温等の制御機器、物理的な動作又は物理的な状態を変化させる機器である。
オペレーション部631は、オペレーション記憶部621にインストールされたOSによって、コンピュータのオペレーションを行う。オペレーション部631は、オペレーション記憶部621にデータを読み書きすることで、オペレーションを行う。
アプリ制御部632は、アプリ記憶部622にインストールされたアプリケーションによって、出力を制御する。アプリ制御部632は、アプリ記憶部622にデータを読み書きすることで、出力を制御する。
撮影制御部633は、撮像部614を用いて撮影を行うアプリケーションである。撮影制御部633は、アプリ制御部632からAPIを呼び出され、動作する。
アプリ制御部632は、撮像部614で撮影した画像を、人工知能サーバ5へ送信する。アプリ制御部632は、人工知能サーバ5からクラスを受信する。アプリ制御部632は、受信したクラスに応じて、入出力部I6の各部を制御する。
<まとめ>
(1)以上のように、機械学習システム(例えば、機械学習システムSys)は、第1システム(例えばデータ収集システムSysA)と第2システム(人工知能システムSysB)を備える。
第1システムでは、提示部(例えば、ゲーム制御部232、クラス提示部2322)、機械学習のための目的情報(例えばクラス)を提示する。入力部(例えば画像取得部2323)は、前記目的情報に対する説明情報(例えば、画像)を、ユーザから入力される。取得部(例えば、データセット提供部2324、データセット受信部3323、データ取得部432)は、前記説明情報と前記目的情報を取得する。評価部(例えば評価部434)は、前記説明情報に基づく入力変数(例えば画像の画素値)と前記目的情報に基づく出力変数(例えば確定クラス)のデータセット、及び、予め定められた学習済モデルに基づいて、前記説明情報による前記目的情報の分類精度(例えば認識率)についての評価(例えば認識評価)を行う。報酬付与部(例えば、報酬決定部3325、報酬付与部2326)は、前記評価に応じた報酬(例えばヒットポイントの増減、カード)を、前記ユーザに対して付与する。履歴生成部(例えば報告部435)は、前記目的情報、前記評価結果、及び前記報酬を関係付けられた履歴情報(サービスログ)を生成する。
第2システムでは、モデル記憶部(例えばアプリ記憶部522)は、前記データセットの少なくとも1個に基づいて学習が行われた学習済モデル(例えば追加学習済モデル)を記憶する。実行部(例えば機器制御部532)は、前記モデル記憶部が記憶する学習済モデルに基づいて、前記説明情報が入力された場合に、前記目的情報を出力する。
これにより、機械学習システムは、目的情報を提示した上で、各ユーザから、機械学習に用いるデータとして、目的情報と説明情報のデータセットを収集できる。各ユーザが説明情報を入力するので、機械学習システムは、多数のデータセット又は多様なデータセットを取得でき、より効率的に、機械学習に用いるデータを収集できる。
また、機械学習システムは、ユーザが目的情報を指定された上で、簡易な操作で説明情報を提供できるので、効率的に機械学習に用いるデータを収集できる。また、ユーザが評価結果に応じた報酬が付与されるので、評価結果が良くなる画像を提供する。この場合、機械学習システムは、評価結果が良くなる画像を、機械学習に用いるデータとして収集できる。また、機械学習システムは、目的情報、評価結果、及び報酬を関係付けられた履歴情報を生成するので、例えば履歴情報を集計することで、目的情報、評価結果、及び報酬の関係を分析することができる。
なお、目的情報は、クラス以外の目的変数、従属変数、外敵基準であってもよい。目的情報は、教示あり学習における出力又は出力に関する情報であってもよい。目的情報は、教師データであってもよい。説明情報は、画像以外の独立変数であってもよく、例えば文字列、音等の波形、又は特徴量空間等の座標の値であってもよい。説明情報は、教示あり学習における入力又は入力に関する情報であってもよい。 入力変数及び出力変数には、それぞれ、説明情報及び目的情報の複製も含まれる。また、出力変数は、画像であってもよい。
また、説明情報をユーザから入力されることには、複数の説明変数を一度に、又は、連続して入力されることが含まれる。例えば、提示されたクラス(例えば「猫」)に対し、「猫」の撮像画像を、複数枚を一度に送信することが含まれる。複数枚を一度に送信することには、連続撮影した画像群を一度に送信させることが含まれる。連続撮影した画像群を送信させる場合、機械学習システムSysは、類似する複数の画像をデータセットとして取得できる。これにより、機械学習システムSysは、例えばモデル認識率が高い画像を、複数枚の画像群として学習に用いることができ、認識率改善値を高くできる場合がある。また連続撮影した画像群を送信する場合、ゲームサーバ3(制御部P3)又は学習サーバ4(制御部P4)は、認識率改善値の最大値を認識率改善値にしてもよいし、認識率改善値に加算や乗算をしてもよい。また連続撮影した画像群を送信する場合、ゲームサーバ3は、1枚の画像を送信する場合と比較して、高い報酬を決定してもよい。
報酬は、ゲーム以外の報酬であってもよい。例えば、報酬は、商取引媒体コンテンツであってもよい。商取引媒体とは、例えば、電子マネー、ポイントサービスでのポイント、物やサービスとの引換券、クーポンであってもよい。引換券には、音楽や映像、画像等、電子的データをダウンロードするものや、限定コンテンツへのアクセス等の電子的データの利用権限を付与するものも含まれる。クーポンには、例えば提携先の飲食店で使用可能なクーポンや、電子商取引サイトで使用可能なカード等に付随するポイントが含まれる。ここで、カードには、お金の決済に利用できるクレジットカードや非接触型カードだけでなく、お金の代わりとして使えるカードが含まれる。なお、ゲームサーバ3は、報酬の付与数を、提携先に報告するための報告情報を生成してもよい。また、管理サーバ1は、ゲームサーバ3から報酬の付与数を示す報告情報を受信し、付与数に応じて、提携先に支払いをするための支払情報を生成してもよい。
分類精度には、分類の精度や認識の精度に限らず、識別の精度も含まれる。説明情報による目的情報の分類精度についての評価は、上述の認識評価に限られない。例えば、データセットの画像を入力し、確定クラスでの認識率を基準認識率と比較してもよい。この場合、確定クラスでの認識率から基準認識率を差し引いた値を、認識率改善値としてもよい。
予め定められた学習済モデルは、依頼先から入手した学習済モデルの種類や各種変数であってもよいし、固定或いは選択された学習済モデルであってもよい。例えば、人工知能サーバ5-1が用いる学習済モデルと、学習サーバ4が認識評価に用いる学習済モデルは異なっていてもよい。これらが異なる場合、管理サーバ1は、収集データセットを納品し、学習部533は、納品された収集データセットを用いて機械学習を行ってもよい。人工知能サーバ5-1が用いる学習済モデルは、収集データセットの一部を用いて、機械学習が行われたものであってもよい。
(2)また、機械学習システムでは、前記提示部は、オブジェクト(例えば画像の被写体)を表す目的情報を提示する。前記入力部は、前記オブジェクトが描画された画像を、前記説明情報として入力される。前記評価部は、前記画像による前記目的情報の分類精度についての評価を行う。前記実行部は、オブジェクトが描画された画像が入力された場合に、当該オブジェクトを表す目的情報を出力する。
これにより、機械学習システムは、機械学習に用いるデータとして、収集したいオブジェクトに応じた画像を収集できる。また、ユーザが提示されたオブジェクトを先に知ることができるので、オブジェクトを特定した上で、そのオブジェクトの写真を撮ることや、フォルダから探すことができる。
なお、画像は、写真やイラスト、アニメーションの画像に限られない。例えば、画像は、物理量を測定し、その分布を表した画像であってもよい。例えば、画像は、物体から放射される赤外線を分析し、熱分布を図として表したサーモグラフィであってもよい。
描画とは、コンピュータにおいて、画像又は映像としてレンダリングできることであってもよい。また、描画とは、写真に写されること、映像に撮影されること、イラスト等として描かれることが含まれてもよい。
(3)また、機械学習システムでは、前記提示部は、複数のユーザの情報端末(例えば携帯端末2-1~2-N)各々の表示部に、前記目的情報を提示する。前記取得部は、前記情報端末各々の前記入力部から入力された前記説明情報を取得する。
これにより、機械学習システムは、複数のユーザから、機械学習に用いるデータとして、目的情報と説明情報のデータセットを収集できる。複数のユーザが説明情報を入力するので、機械学習システムは、多数のデータセット又は多様なデータセットを取得でき、より効率的に、機械学習に用いるデータを収集できる。
なお、情報端末は、スマートフォンに限られず、タブレット端末、ヘッドマウントディスプレイ、パーソナルコンピュータ、音楽プレーヤー、デジタルカメラ、テレビ、スマートスピーカ、家電機器、及び、ウェアラブル端末等であってもよい。情報端末は、携帯される端末に限らず、設置型の端末であってもよい。
(4)また、機械学習システムでは、前記第1システムは、複数の情報端末と、複数の情報端末各々とインターネットを介して接続されるサーバ(学習サーバ4)と、を具備する。インターネットを介して提供されたアプリケーションプログラム(例えばモバイルアプリケーション、ゲームアプリ)は、前記情報端末各々を前記提示部と前記入力部として機能させる。前記サーバは、前記取得部を備える。前記取得部は、複数のユーザの情報端末各々から、インターネットを介して、前記説明情報と前記目的情報を取得する。
これにより、機械学習システムは、アプリケーションプログラムを、インターネットを介して提供するので、一般的なユーザに幅広く利用されることができる。機械学習システムは、多数のデータセット又は多様なデータセットを取得でき、より効率的に、機械学習に用いるデータを収集できる。
なお、アプリケーションプログラムは、ゲームに限らず、情報閲覧、画像閲覧、コミュニケーション、オフィスツール等のアプリケーションプログラムであってもよい。
(5)また、機械学習システムでは、前記第1システムは、注文管理部(例えば注文管理部131)と納品管理部(例えば納品管理部136)をさらに備える。注文管理部は、第2システムに関する依頼元であって、前記説明情報と前記目的情報を取得することを依頼する依頼元を示す依頼元情報を管理する。納品管理部は、前記データセットの納品状況であって、前記依頼元情報が示す依頼元への納品状況を管理する。前記モデル記憶部は、納品された前記データセットの少なくとも1個に基づいて学習が行われた学習済モデルを記憶する。
これにより、機械学習システムは、複数の依頼元から、データセットを収集する依頼を受注し、その注文管理することができる。また、機械学習システムは、データセットの納品を管理することができる。これにより、機械学習システムは、管理者に対して、データセットを収集するサービスのプラットフォームを提供でき、そのサービスによるビジネスを円滑に行わせることができる。
(6)また、機械学習システムでは、前記提示部は、複数の前記目的情報を提示する(図1の領域G112、プルダウンメニューG122参照)。前記入力部は、前記ユーザが選択した前記目的情報と、当該目的情報に対する説明情報と、を入力される。前記取得部は、複数の前記目的情報について、前記説明情報と前記目的情報を取得する。
これにより、ユーザは、複数の目的情報から、説明変数を提供可能な目的情報を選択できる。例えば、ユーザは、写真を撮ることができるクラスや、画像を保持しているクラスを選択できるので、機械学習システムは、1つだけ提示する場合と比較して、データセットを収集できる可能性を高くすることができる。また、機械学習システムは、1つだけ提示する場合と比較して、ユーザがクラスの画像を提供できずに、ゲームをあきらめてしまい、サービスを利用しなくなる可能性を低くすることができる。
(7)また、機械学習システムでは、前記第1システムは、情報端末を具備し、前記情報端末は、前記提示部、前記入力部、及び撮像部(例えば撮像部214)を備え、前記提示部は、オブジェクトを表す目的情報を提示し、前記入力部は、前記説明情報として、前記撮像部で撮像された画像であって、前記オブジェクトが描画された画像を、前記説明情報として入力される。
これにより、ユーザは、これから撮影する画像、又は過去に撮影した画像を、画像を撮影し記録可能な情報端末から入力することができる。例えば、ユーザは、提示されたオブジェクトを、提示が参照された情報端末の撮像部で撮影できる。ユーザは、提示されたオブジェクトが描写された画像を有していない場合でも、提示を参照した情報端末で撮影し、撮影した画像を提供できる。
(8)また、機械学習システムでは、ゲームプログラムは、複数の前記情報端末各々を前記提示部、前記入力部、報酬付与部として機能させる。前記提示部は、ゲーム内のイベントにおいて、前記目的情報を提示する。前記入力部は、前記ユーザが前記ゲームを進行させるために、前記目的情報に対する画像を、前記説明情報として入力される。前記報酬付与部は、前記ゲームの報酬として、前記ゲームでの変数の更新、又はゲームオブジェクトの付与を行う。
これにより、ユーザは、ゲームで楽しみながら、データセットを提供できる。
なお、ゲーム内のイベントとは、ゲームでの対戦等である。ゲームのシナリオにおいて、ユーザが対戦相手と遭遇すること、ユーザが対戦相手を選択すること、又は、所定条件で自動的に対戦が始まることも含まれる。対戦相手には、コンピュータが制御するノンプレイヤーキャラクタだけではなく、通信等で人間が操作するキャラクタも含まれる。
(9)また、機械学習システムでは、設定部(例えば設定更新部132)は、予め定められた学習済モデルにおける目的情報の分類精度に基づいて、前記提示部に提示させる目的情報(例えば認識率の低いクラス)を決定する。
これにより、機械学習システムは、分類精度の低い目的情報を提示して、その目的情報の説明情報を取得することができる。これにより、機械学習システムは、分類精度の低い目的情報の分類精度を、優先して向上させることができる。
なお、設定更新部132は、基準学習済モデルに基準データセットを入力し、認識率の低いクラスを、設定クラスに決定する。
<ハードウェア構成>
図30は、本実施形態に係る各装置のハードウェア構成を説明する説明図である。
各装置とは、管理サーバ1、携帯端末2、ゲームサーバ3、学習サーバ4、人工知能サーバ5、制御機器6、又は、端末T1である。各装置は、入出力モジュールI、記憶モジュールM、及び制御モジュールPを含んで構成される。入出力モジュールIは、通信モジュールH11、接続モジュールH12、ポインティングデバイスH21、キーボードH22、ディスプレイH23、ボタンH3、マイクH41、スピーカH42、カメラH51、又はセンサH52の一部或いは全部を含んで実現される。記憶モジュールMは、トライブH7を含んで実現される。記憶モジュールMは、さらに、メモリH8の一部或いは全部を含んで構成されてもよい。制御モジュールPは、メモリH8及びプロセッサH9を含んで実現される。これらのハードウェア構成要素は、バス(Bus)を介して、相互に通信可能に接続されるとともに、電源H6から電力を供給されている。
接続モジュールH12は、USB(Universal Seriul Bus)等のデジタル入出力ポートである。携帯機器の場合、ポインティングデバイスH21、キーボードH22、及びディスプレイH23は、タッチパネルである。センサH52は、加速度センサ、ジャイロセンサ、GPS受信モジュール、近接センサ等である。電源H6は、各装置を動かすために必要な電気を供給する電源ユニットである。携帯機器の場合、電源H6は、バッテリーである。
ドライブH7は、ハードディスクドライブやソリッドステートドライブ等の補助記憶媒体である。ドライブH7は、EEPROMやフラッシュメモリ等の不揮発性メモリ、又は、光磁気ディスクドライブやフレキシブルディスクドライブであってもよい。また、ドライブH7は、例えば、各装置に内蔵されるものに限らず、IFモジュールH12のコネクタに接続された外付け型の記憶装置でもよい。
メモリH8は、ランダムアクセスメモリ等の主記憶媒体である。なお、メモリH8は、キャッシュメモリであってもよい。メモリH8は、一又は複数のプロセッサH9によって命令が実行されるときに、これらの命令を格納する。
プロセッサH9は、プロセッサH9は、CPU(中央演算装置)である。プロセッサH9は、MPU(マイクロプロセッシングユニット)又はGPU(グラフィックスプロセッシングユニット)であってもよい。プロセッサH9は、メモリH8を介してドライブH7から、プログラム及び各種データを読み出して演算を行うことで、一又は複数のメモリH8に格納した命令を実行する。
入出力モジュールIは、入出力部I1、I2、I3、I4、I5、及びI6を実現する。記憶モジュールMは、記憶部M1、M2、M3、M4、M5、及びM6を実現する。制御モジュールPは、制御部P1、P2、P3、P4、P5、及びP6を実現する。
なお、本明細書等において、管理サーバ1、携帯端末2、ゲームサーバ3、学習サーバ4、人工知能サーバ5、及び制御機器6との記載は、それぞれ、制御部P1、P2、P3、P4、P5、及びP6との記載に置き換えられてもよいし、これらの各装置及び端末T1との記載は、制御モジュールPとの記載に置き換えられてもよい。
<変形例>
上記実施形態において、情報端末は、ソーシャルネットワークサービス(コミュニケーションサービスを含む)、ブログ、情報掲載サイト、又は情報検索サイト等のウェブサイトや、それらのモバイルアプリケーションで表示されるコンテンツの画像を、ユーザに選択させて、確定クラスの画像としてユーザに入力させてもよい。
図31は、本実施形態に係る画面フローの別の一例を表す概要図である。
この図は、情報端末の一例である携帯端末2の制御部P2が、入出力部I2に表示させる画面フローの一例である。図31と図1を比較すると、画面G1とボタンBT41が異なる。これ以外の表示は同じであるので、説明を省略する。
ボタンBT11がユーザにタッチされた場合、携帯端末2(制御部P2)は、ウェブブラウザ機能を起動し、ウェブサイトを表示する。画面G41は、このウェブサイトが表示された画面である。画面G41では、ユーザは、画像をタップすることで、静止画又は動画を選択することができる。画像が選択された状態で、ボタンBT42がユーザにタッチされた場合、携帯端末2は、その画像が選択された画面G12を表示する。
このように、前記第1システムは、情報端末を具備する。前記情報端末は、前記提示部、前記入力部、及び、ネットワークサービスにて画像を含む情報を前記ユーザに閲覧させる情報閲覧部(例えば制御部P2、情報閲覧部234)を備える。前記提示部は、オブジェクトを表す目的情報を提示する。前記入力部は、前記ユーザが指定した前記画像の少なくとも一部であって、前記オブジェクトが描画された前記画像を、前記説明情報として入力される。
これにより、ユーザは、ネットワークサービスの画像を、データセットの画像として選択できる。機械学習システムは、ネットワークサービスの画像も取得できるので、さらに多数のデータセット又は多様なデータセットを取得でき、より効率的に、機械学習に用いるデータを収集できる。
なお、本実施形態に係るゲームアプリは、ソーシャルネットワークサービス、ブログ、情報掲載サイト、又は情報検索サイト等のウェブサイトや、それらのモバイルアプリケーションの一機能として、実装されてもよい。例えば、携帯端末2(ゲームアプリ、ゲーム制御部232)は、ユーザが友人の投稿を参照した場合に、設定クラスを提示してもよい。例えば、携帯端末2は、友人の投稿を参照させた場合に、クラス「カレー」、「アイスクリーム」、「自動車」を提示する。ユーザは、投稿から画像を選択し、確定クラスとともに、これらのデータセットを提供する。ここで、携帯端末2は、ユーザが友人に画像を選択することの許諾を得る機能を提供し、許諾が得られた場合に、データセットを取得してもよいし、または、報酬を付与してもよい。
携帯端末2(例えば制御部P2)は、ユーザに画像を選択させる場合に、タッチ操作に応じて、確定カテゴリを選択してもよい。タッチ操作には、複数回のタップ、ドラッグ、又はスワイプが含まれる。例えば、携帯端末2は、ドラッグの始点と終点の位置(ドラッグの方向)に応じて、確定カテゴリを選択する。
図32は、本実施形態に係る画面フローの別の一例を表す概要図である。
この図は、携帯端末2の制御部P2が、入出力部I2に表示させる画面フローの一例である。携帯端末2は、操作ごとに選択するクラスを予め設定されている。
例えば、携帯端末2は、画面の左上から右下へ、右斜め下がりにドラッグされた場合、第1クラス(猫)を選択し、画面の右上から左下へ、左斜め下がりにドラッグされた場合、第3クラス(自動車)を選択するように設定されている。
画面G51は、始点F51から終点F52へ、つまり、画面の左上から右下へ、右斜め下がりにドラッグが行われている。この場合、携帯端末2は、画面G52のように、始点F51と終点F52を頂点とする矩形を、ユーザに選択された選択領域G521として、表示する。選択領域G521が表示された状態で、ボタンBT51がユーザにタッチされた場合、携帯端末2は、画面G53を表示する。画面G53では、クラスを選択するプルダウンメニューの初期値として、第1クラスの「猫」が選択されて表示されている。
画面G61は、始点F61から終点F62へ、つまり、画面の右上から左下へ、左斜め下がりにドラッグが行われている。この場合、携帯端末2は、画面G62のように、始点F61と終点F62を頂点とする矩形を、ユーザに選択された選択領域G621として、表示する。選択領域G621が表示された状態で、ボタンBT61がユーザにタッチされた場合、携帯端末2は、画面G63を表示する。画面G63では、クラスを選択するプルダウンメニューの初期値として、第3クラスの「自動車」が選択されて表示されている。
なお、ボタンBT13は、図1のものと同じである。また、始点と終点は、2回のタップで指定されてもよい。
このように、携帯端末2は、操作の方向、又は、画面上の2点の位置関係に応じて、プルダウンメニューの選択肢の1個を、初期値として選択して表示する。これにより、ユーザは、簡易な操作で、入力する選択肢を、初期値として選択できる。
なお、携帯端末2は、操作の方向、又は、画面上の2点の位置関係に応じて、ラジオボタンやチェックボックスの選択肢の1個又は複数を、初期値として選択してもよい。
また、携帯端末2は、ドラッグ後の画面G52、画面G53において、ショートカットメニューを表示し、ショートカットのメニューとして、ドラッグの方向に対応するクラスを優先して、選択可能に表示してもよい。
携帯端末2(例えば制御部P2)は、ユーザが撮影した後、撮影された画像について、顔部分を検出し、検出した顔部分をぼかす等のモザイク処理を行ってもよい。これにより、機械学習システムSysは、ユーザのプライバシー保護に配慮しつつ、データセットの画像を取得できる。
学習サーバ4(例えば制御部P4)は、説明情報として音データを取得してもよい。
図33は、本実施形態に係る画面フローの別の一例を表す概要図である。
この図は、携帯端末2の制御部P2が、入出力部I2に表示させる画面フローの一例である。図33と図1を比較すると、画面G71、G72、及び画面G73の表示732が異なる。これ以外の表示は同じであるので、説明を省略する。
画面G71は、画面G11と比較して、領域712とボタンBT71の表示が異なる。
領域G712には、画像のクラスとして、猫、犬、及び、自動車が表示されている。
ボタンBT71がユーザにタッチされた場合、携帯端末2は、マイクを起動し、音を録音可能な画面(図示せず)を表示する。この画面では、ユーザは、録音ボタンをタップすることで、音を録音することができる。
画面G72には、画像G721に音データの情報(「説明情報」の一例)が表示されている。音データは、音データで、再生ボタンをタップすることで、再生可能である。
画面73の画像G732は、画像G721の音の評価として、評価の高い音である旨(「GREAT Sound」)を表す画像である。
携帯端末2(例えば制御部P2)は、撮像部214で撮像させる場合に、認識率に基づくガイダンス表示を行ってもよい。
例えば、携帯端末2は、基準学習済モデルを用いて、撮影している画像からオブジェクトを認識し、そのオブジェクトの認識率を取得する。この認識率は、設定クラスの認識率であってもよいし、認識率の最大となるクラスの認識率であってもよい。携帯端末2は、学習サーバ4へ画像を送信してもよいし、自装置に基準学習済モデルを記憶してもよい。
携帯端末2は、認識率が高くなるように、被写体との位置関係やズーム、又は、自装置の向きのガイダンス表示を行う。
図34は、本実施形態に係る画面フローの別の一例を表す概要図である。
この図は、携帯端末2の制御部P2が、入出力部I2に表示させる画面フローの一例である。画面G81には、被写体S(猫)が認識され、被写体Sを囲む枠G811が表示されている。ガイダンス表示G812は、枠G811で囲った部分を大きく写すこと、つまり、被写体に近づくかカメラのズーム機能を使うべき(ズームアップすべき)ことを案内している。
画面G82は、ユーザがガイダンス表示に従って、被写体Sを大きく写した場合に表示される。画面G82では、認識率が画面G81の70%から80%に増加している。
画面G82には、被写体Sを囲む枠G821が表示されている。ガイダンス表示G822は、携帯端末2を被写体Sに対して回転(ヨー軸の回転)させるべきことを案内している。また、ガイダンス表示G822は、認識率に応じた報酬として、ノーマルカードが付与されることも表している。つまり、画面G82の状態で、撮影した被写体Sの画像をデータセットにした場合、報酬としてノーマルカードが付与される。
画面G83は、ユーザがガイダンス表示に従って、携帯端末2を被写体Sに対して回転させた場合に表示される。画面G83では、認識率が画面G82の80%から85%に増加している。
画面G81には、被写体Sを囲む枠G831が表示されている。ガイダンス表示G832は、携帯端末2を、別の方向に回転(ロール軸の回転)させるべきことを案内している。また、ガイダンス表示G832は、認識率に応じた報酬として、レアカードが付与されることも表している。つまり、画面G82の状態で、撮影した被写体Sの画像をデータセットにした場合、報酬としてレアカードが付与される。
画面G84は、ユーザがガイダンス表示に従って、携帯端末2を回転させた場合に表示される。画面G84では、認識率が画面G83の85%から94%に増加している。
画面G84には、被写体Sを囲む枠G841が表示されている。ガイダンス表示G842は、この状態で、撮影すべきことを案内している。また、ガイダンス表示G832は、認識率に応じた報酬として、スーパーレアカードが付与されることも表している。つまり、画面G84の状態で、撮影した被写体Sの画像をデータセットにした場合、報酬としてレアカードが付与される。
画面G85は、画面G84でBT81がタップされ、枠G841部分が撮影されたことを表している。
管理サーバ1(制御部P1)は、データセットを提供した以外の複数のユーザに、データセットの画像を評価させ、評価結果に応じて、データセットとして適切か否かを判定してもよい。データセットとして適切か否かとは、データセットとして学習に用いるか否か、又は、データセットとして納品するか否かであってもよい。
図35は、本実施形態に係る画面の別の一例を表す概要図である。
この図は、携帯端末2の制御部P2が、入出力部I2に表示させる画面の一例である。画面G91には、あるユーザから取得した画像G911と確定クラス「猫」が表示されている。画面G91には、いいね(Like)ボタンBT91といやだね(Dislike)ボタンBT92が表示されている。ボタンBT91は、986人の他のユーザ(986個のユーザID)からタップされ、ボタンBT92は、15人の他のユーザからタップされている。
つまり、986人の他のユーザは、画像G911を、「猫」の画像である、又は、「猫」の画像として適切である、と評価している。一方、15人の他のユーザは、画像G911を、「猫」の画像ではない、又は、「猫」の画像として適切でない、と評価している。
管理サーバ1は、ボタンBT91による評価数とボタンBT92による評価数の差が、閾値以上になった場合、データセットとして適切であると判定する。
このように、機械学習システムSysは、人間の評価も含めて、データセットを取得することができる。また、機械学習システムSysは、不特定多数のユーザがデータセットを提供可能である場合でも、他の人間の評価により、適切なデータセットを取得できる。
携帯端末2(例えば制御部P2)は、クラスを提示する画面、写真を撮影可能な画面、又は、ファイルやコンテンツの画像を選択可能な画面において、クラスの画像のサンプル(「サンプル画像」とも称する)を表示してもよい。これにより、ユーザは、撮影或いは選択すべき画像を認識しやすくなる。また、年齢の低い子供や外国人等、クラスを表す文字の言語に不慣れなユーザであっても、撮影或いは選択すべき画像を認識できる。
また、ユーザは、サンプル画像に似た写真を撮影或いは選択するので、サンプル画像で、被写体の大きさや向き(角度)を指定することもできる。これにより、機械学習システムSysは、学習データセットとして、所望の大きさや向きの被写体が描写された画像を取得できる可能性が高くなる。
図36は、本実施形態に係る画面フローの別の一例を表す概要図である。
この図は、携帯端末2の制御部P2が、入出力部I2に表示させる画面フローの一例である。画面Ga11には、クラスとして、猫及び自動車が、文字とサンプル画像で表示されている。画像Ga111は、クラス「猫」のサンプル画像である。また、画面Ga11では、クラスごとに、カメラを起動するボタン、画像を選択する機能を発生させるボタンが配置されている。これにより、携帯端末2は、ユーザが選択したクラスや画像の種類(撮影した画像又は選択した画像)を特定できる。例えばボタンBTa11がユーザにタッチされた場合、携帯端末2は、カメラを起動し、画面Ga12を表示する。
画面Ga12には、ユーザに選択されたクラス及びそのサンプル画像Ga121が表示されている。画像Ga122は、カメラが撮影している画像である。
ユーザが撮影ボタンBTa121をタップした場合、携帯端末2は、そのとき撮影していた画像を画像ファイルとして記憶する。その後、携帯端末2は、画面Ga13において、画像ファイルの画像を表示する。画面Ga13において、ボタンBta131がユーザにタッチされた場合、携帯端末2は、図20のステップS308~S310の処理を行った後、画面Ga14を表示する。
画面Ga14には、例えば電子商取引サイトやクレジットカードのポイントとして、100ポイントが付与されたことが表示されている。また画面Ga14には、そのポイントの合計値が2300ポイントであることが表示されている。また画面Ga14には、ポイントを消費するサイトへリンクされたボタンが表示されている。例えばボタンは、ポイントを消費して、商品と交換するサイトへリンクされたボタンである。例えばボタンは、ポイントを消費して、買い物をするサイトへリンクされたボタンである。
なお、サービスログは、次のように集計されてもよい(図16のステップS209)。
管理サーバ1(サービス管理部135)は、データセットの確定クラスごとに、各ゲーム因子(ゲームID、イベントID、対戦キャラクタID、又は報酬ID)に対して、モデル認識率の平均値、対戦数又はデータセット数を算出する。管理サーバ1は、同一又は類似する確定クラスの画像を収集する場合に、モデル認識率の平均値、対戦数又はデータセット数が最大となるゲーム因子を管理者へ提示し、ゲーム設定として設定する。なお、サービスログの集計では、モデル認識率に代えて或いは追加して、認識率改善値や認識評価値が用いられてもよい。
なお、データ収集システムSysAと人工知能システムSysBでは、システム或いはサービスの提供主体、開発主体、管理主体、或いは運用主体、又は、各システムの装置にインストールされるアプリケーション、アプリケーションの提供主体、開発主体、管理主体、或いは運用主体が異なる。データ収集システムSysAと人工知能システムSysB-2、B-Mでは、ユーザ(一般ユーザと企業)やクライアント(一般ユーザの携帯端末2と企業の制御機器6-2、6-M)、ネットワーク(インターネットNWと、ローカルエリアネットワークL2或いは直接接続)が異なる。データ収集システムSysAと人工知能システムSysBでは、データセットに対する報酬(変数の更新或いはゲームオブジェクトと、料金)が異なる。ただし、本発明はこれに限らず、データ収集システムSysAと人工知能システムSysBは、同一の主体が提供してもよい。その場合、例えば、依頼元の情報はなくてもよい。
上述の管理サーバ1、携帯端末2、ゲームサーバ3、学習サーバ4、人工知能サーバ5、及び制御機器6は内部に、コンピュータシステムを有している。そして、上述した図5の一部又は全部の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
なお、図2における機械学習システムSysの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各種処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
本発明の一態様は、例えば、人工知能を利用するシステムや装置、データを収集するシステムや装置において、利用することができる。人工知能は、様々な機器に利用できる。
Sys・・・機械学習システム、SysA・・・データ収集システム、SysB、SysB-1~B-M・・・データ収集システム、1・・・管理サーバ、2、2-1~2-M・・・携帯端末、3・・・ゲームサーバ、4・・・学習サーバ、5、5-1~5-M・・・人工知能サーバ、6、6-1~6-M・・・制御機器、I、I1、I2、I3、I4、I5、I6・・・入出力部、M,M1、M2、M3、M4、M5、M6、M・・・記憶部、P、P1、P2、P3、P4、P5、P6・・・制御部、111・・・通信部、121・・・注文情報記憶部、122・・・ゲーム設定記憶部、123・・・学習設定記憶部、124・・・状況情報記憶部、125・・・収集情報記憶部、126・・・サービスログ記憶部、131・・・注文管理部、132・・・設定更新部、133・・・ゲーム設定部、134・・・学習設定部、135・・・サービス管理部、136・・・納品管理部、211・・・通信部、212・・・入力部、213・・・出力部、214・・・撮像部、215・・・センサ部、221・・・オペレーション記憶部、222・・・ゲーム記憶部、223・・・データ記憶部、231・・・オペレーション部、232・・・ゲーム制御部、233・・・撮影制御部、234・・・情報閲覧部、235・・・ファイル管理部、236・・・表示制御部、311・・・通信部、321・・・オペレーション記憶部、322・・・管理アプリ記憶部、331・・・オペレーション部、332・・・管理アプリ制御部、2321・・・イベント管理部、2322・・・クラス提示部、2323・・・画像取得部、2324・・・データセット提供部、2325・・・変数値更新部、232・・・報酬付与部、3321・・・イベント通知部、3322・・・クラス管理部、3323・・・データセット受信部、3324・・・判定部、3325・・・報酬決定部、3326・・・ログ生成部、411・・・通信部、421・・・学習設定記憶部、422・・・基準記憶部、423・・・収集データ記憶部、424・・・収集ログ記憶部、431・・・学習設定部、432・・・データ取得部、433・・・学習部、434・・・評価部、435・・・報告部、4231・・・追加学習済モデル記憶部、4232・・・第1データセット記憶部、4233・・・第2データセット記憶部、4234・・・第3データセット記憶部、511・・・通信部、521・・・オペレーション記憶部、522・・・アプリ記憶部、531・・・オペレーション部、532・・・機器制御部、533・・・学習部、611・・・通信部、612・・・入力部、613・・・出力部、614・・・撮像部、615・・・センサ部、616・・・駆動部、621・・・オペレーション記憶部、622・・・アプリ記憶部、631・・・オペレーション部、632・・・アプリ制御部、633・・・撮影制御部、H11・・・通信モジュール、H12・・・接続モジュール、H21・・・ポインティングデバイス、H22・・・キーボード、H23・・・ディスプレイ、H3・・・ボタン、H41・・・マイク、H42・・・スピーカ、H51・・・カメラ、H52・・・センサ、H6・・・電源、H7・・・ドライブ、H8・・・メモリ、H9・・・プロセッサ

Claims (10)

  1. 第1システムは、
    機械学習のための目的情報であって、ユーザが提供する目的情報を提示する提示部と、
    前記目的情報に対する説明情報を、前記ユーザから入力される入力部と、
    前記説明情報と前記目的情報を取得する取得部と、
    前記説明情報に基づく入力変数と前記目的情報に基づく出力変数のデータセット、及び、予め定められた学習済モデルに基づいて、前記説明情報による前記目的情報の分類精度についての評価を行う評価部と、
    前記評価に応じた報酬を、前記ユーザに対して付与する報酬付与部と、
    前記目的情報、前記評価の結果、及び前記報酬が関係付けられた履歴情報を生成する履歴生成部と、
    を備え、
    第2システムは、
    前記データセットの少なくとも1個に基づいて機械学習が行われた学習済モデルを記憶するモデル記憶部と、
    前記モデル記憶部が記憶する学習済モデルに基づいて、前記説明情報が入力された場合に、前記目的情報を出力する実行部と、
    を備え、
    前記評価部は、前記予め定められた学習済モデルと、前記データセットの少なくとも1個に基づいて機械学習が行われた学習済モデルと、に基づいて、前記分類精度についての評価を行う
    機械学習システム。
  2. 前記提示部は、オブジェクトを表す目的情報を提示し、
    前記入力部は、前記オブジェクトが描画された画像を、前記説明情報として入力され、
    前記評価部は、前記画像による前記目的情報の分類精度についての評価を行い、
    前記実行部は、オブジェクトが描画された画像が入力された場合に、当該オブジェクトを表す目的情報を出力する
    請求項1に記載の機械学習システム。
  3. 前記提示部は、複数のユーザの情報端末各々の表示部に、前記目的情報を提示し、
    前記取得部は、前記情報端末各々の前記入力部から入力された前記説明情報を取得する
    請求項1又は請求項2に記載の機械学習システム。
  4. 前記第1システムは、複数の情報端末と、前記複数の情報端末各々とインターネットを介して接続されるサーバと、を具備し、
    インターネットを介して提供されたアプリケーションプログラムは、前記情報端末各々を前記提示部と前記入力部として機能させ、
    前記サーバは、前記取得部を備え、
    前記取得部は、複数のユーザの情報端末各々から、インターネットを介して、前記説明情報と前記目的情報を取得する
    請求項1から請求項3のいずれか一項に記載の機械学習システム。
  5. 前記第1システムは、
    第2システムに関する依頼元であって、前記説明情報と前記目的情報を取得することを依頼する依頼元を示す依頼元情報を管理する注文管理部と、
    前記データセットの納品状況であって、前記依頼元情報が示す依頼元への納品状況を管理する納品管理部と、
    をさらに備え、
    前記モデル記憶部は、納品された前記データセットの少なくとも1個に基づいて機械学習が行われた学習済モデルを記憶し、
    前記注文管理部は、前記依頼元が要求する学習済モデルの認識率を示す認識率情報を管理し、
    前記評価部は、前記データセットの少なくとも1個に基づいて機械学習が行われた学習済モデルの認識率を示す認識率情報を算出し、前記分類精度についての評価を行う
    請求項1から請求項4のいずれか一項に記載の機械学習システム。
  6. 前記提示部は、複数の前記目的情報を提示し、
    前記入力部は、前記ユーザが選択した前記目的情報と、当該目的情報に対する説明情報と、を入力され、
    前記取得部は、複数の前記目的情報について、前記説明情報と前記目的情報を取得する
    請求項1から請求項5のいずれか一項に記載の機械学習システム。
  7. 前記第1システムは、情報端末を具備し、
    前記情報端末は、前記提示部、前記入力部、及び撮像部を備え、
    前記提示部は、オブジェクトを表す目的情報を提示し、
    前記入力部は、前記説明情報として、前記撮像部で撮像された画像であって、前記オブジェクトが描画された画像を、前記説明情報として入力される
    請求項1から請求項6のいずれか一項に記載の機械学習システム。
  8. 機械学習のための目的情報であって、ユーザが提供する目的情報を提示する提示部と、
    前記目的情報に対する説明情報を、ユーザから入力される入力部と、
    前記目的情報と前記説明情報を用いた評価に応じた報酬を、前記ユーザに対して付与する報酬付与部と、
    を備え、
    前記評価は、予め定められた学習済モデルであって前記説明情報による前記目的情報の分類精度についての評価を行う学習済モデルと、前記説明情報に基づく入力変数と前記目的情報に基づく出力変数のデータセットの少なくとも1個に基づいて機械学習が行われた学習済モデルと、に基づいて行われる、
    情報端末。
  9. 機械学習のための目的情報であって、ユーザが提供する目的情報を提示し、
    前記目的情報に対する説明情報を、ユーザから入力され、
    前記目的情報と前記説明情報を用いた評価に応じた報酬を、前記ユーザに対して付与し、
    前記評価は、予め定められた学習済モデルであって前記説明情報による前記目的情報の分類精度についての評価を行う学習済モデルと、前記説明情報に基づく入力変数と前記目的情報に基づく出力変数のデータセットの少なくとも1個に基づいて機械学習が行われた学習済モデルと、に基づいて行われる、
    情報処理方法。
  10. 情報端末のコンピュータに、
    機械学習のための目的情報であって、ユーザが提供する目的情報を提示させる提示手順、
    前記目的情報に対する説明情報を、ユーザから入力される入力手順、
    前記目的情報と前記説明情報を用いた評価に応じた報酬を、前記ユーザに対して付与させる報酬付与手順、
    を実行させ、
    前記評価は、予め定められた学習済モデルであって前記説明情報による前記目的情報の分類精度についての評価を行う学習済モデルと、前記説明情報に基づく入力変数と前記目的情報に基づく出力変数のデータセットの少なくとも1個に基づいて機械学習が行われた学習済モデルと、に基づいて行われるためのプログラム。
JP2021506853A 2019-03-18 2019-03-18 機械学習システム、情報端末、情報処理方法、プログラム Active JP7255671B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/011193 WO2020188701A1 (ja) 2019-03-18 2019-03-18 機械学習システム、情報端末、情報処理装置、情報処理方法、プログラム、学習済モデル、及び、学習済モデルを生産する方法

Publications (2)

Publication Number Publication Date
JPWO2020188701A1 JPWO2020188701A1 (ja) 2020-09-24
JP7255671B2 true JP7255671B2 (ja) 2023-04-11

Family

ID=72520694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506853A Active JP7255671B2 (ja) 2019-03-18 2019-03-18 機械学習システム、情報端末、情報処理方法、プログラム

Country Status (3)

Country Link
US (1) US20220168640A1 (ja)
JP (1) JP7255671B2 (ja)
WO (1) WO2020188701A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021093568A (ja) * 2019-12-06 2021-06-17 キヤノン株式会社 撮像装置、情報処理装置、及びこれらの制御方法並びにプログラム、学習済みモデル選択システム
US20220008824A1 (en) * 2020-07-13 2022-01-13 Nvidia Corporation Game generation using one or more neural networks

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018106662A (ja) 2016-12-22 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2018531543A (ja) 2015-09-17 2018-10-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated ワイヤレスネットワークにおけるクラウドソースの写真撮影の管理

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018531543A (ja) 2015-09-17 2018-10-25 クゥアルコム・インコーポレイテッドQualcomm Incorporated ワイヤレスネットワークにおけるクラウドソースの写真撮影の管理
JP2018106662A (ja) 2016-12-22 2018-07-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
JPWO2020188701A1 (ja) 2020-09-24
WO2020188701A1 (ja) 2020-09-24
US20220168640A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
CN109272380B (zh) 虚拟宠物商品的交易方法、装置、设备及存储介质
US20230022301A1 (ja)
US8909706B2 (en) Social networking data augmented gaming kiosk
US10636082B2 (en) Proxy agent for distributed computing transactions
KR20190084290A (ko) 증강 현실 기반의 가상 오브젝트를 할당하기 위한 방법 및 디바이스
US10350492B2 (en) Server, information processing system, storage medium storing information processing program, and information processing method
US20130311566A1 (en) Method and apparatus for creating rule-based interaction of portable client devices at a live event
JP5714666B2 (ja) ネットワークシステム、並びにそれに用いるサーバ装置、サーバ装置の制御方法及びコンピュータプログラム
JP7245853B2 (ja) バーチャルペットの繁殖方法、装置、機器及びコンピュータプログラム
JP6401133B2 (ja) ネットワークシステム及び制御プログラム
CN106796700A (zh) 用于电子商务的使用标记媒体、3d索引虚拟现实图像和全球定位系统位置的用户界面
US20140358695A1 (en) Communication facilitator
JP7255671B2 (ja) 機械学習システム、情報端末、情報処理方法、プログラム
WO2015164969A1 (en) System and method for cross-application virtual goods management
US11964209B2 (en) Machine learning based gaming platform messaging risk management using gamer behavior
JP5820895B2 (ja) ネットワークシステム、サーバコンピュータ、及び、端末装置のプログラム
US8588944B1 (en) Virtual user-based scoring of real events
CN106030603A (zh) 通过逐步公开的个人守护程序交互
JP6574454B2 (ja) ゲームシステム及びプログラム
CN107807940B (zh) 信息推荐方法和装置
TWI677833B (zh) 個性化定制系統及方法
KR102445530B1 (ko) 공공복지 활동의 시각화를 위한 방법 및 장치
WO2014169191A2 (en) Mobile rewarder with mapping and tagging
JP6688353B2 (ja) ネットワークシステム、サーバコンピュータ及び制御プログラム
JP2018158018A (ja) ゲームプログラム、ゲーム処理方法、およびゲームシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210914

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R151 Written notification of patent or utility model registration

Ref document number: 7255671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151