JPWO2018142766A1 - 学習済みモデル提供方法および学習済みモデル提供装置 - Google Patents

学習済みモデル提供方法および学習済みモデル提供装置 Download PDF

Info

Publication number
JPWO2018142766A1
JPWO2018142766A1 JP2018538805A JP2018538805A JPWO2018142766A1 JP WO2018142766 A1 JPWO2018142766 A1 JP WO2018142766A1 JP 2018538805 A JP2018538805 A JP 2018538805A JP 2018538805 A JP2018538805 A JP 2018538805A JP WO2018142766 A1 JPWO2018142766 A1 JP WO2018142766A1
Authority
JP
Japan
Prior art keywords
learned model
learned
model
user
side device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018538805A
Other languages
English (en)
Other versions
JP7065266B2 (ja
Inventor
裕一 松本
雅貴 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2018142766A1 publication Critical patent/JPWO2018142766A1/ja
Application granted granted Critical
Publication of JP7065266B2 publication Critical patent/JP7065266B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

学習済みモデル提供システム(1)が、複数の学習済みモデルを予め保管している学習済みモデル提供装置(2)と、学習済みモデル提供装置(2)から学習済みモデルの提供を受けるユーザ側装置(3)とを備えた構成とする。学習済みモデル提供装置(2)は、ユーザ側装置(3)から取得したテストデータを使用して算出した性能に基づいて、学習済みモデルデータベース(27)に保管されている複数の学習済みモデルからユーザ側装置(3)に提供する学習済みモデルを選択することができる。これにより、データベース(27)に予め保管されている複数の学習済みモデルから、ユーザ側装置(3)での利用に最適な学習済みモデルを選択して提供することが可能となる。

Description

本開示は、ユーザ側装置から取得した利用要求に応じてデータベースに予め保管されている複数の学習済みモデルから1または複数の学習済みモデルを選択してユーザ側装置に提供する学習済みモデル提供方法および学習済みモデル提供装置に関する。
従来、センシングデータを利用するセンサネットワークにおいてセンシングデータの流通を適正化することを目的として、センシングデータを出力するセンサに関する情報であるセンサ側メタデータと、センシングデータを利用してサービスを提供するアプリケーションに関する情報であるアプリ側メタデータとのマッチングを行うことにより、アプリケーションの要求を満たすセンシングデータを提供可能なセンサを抽出するようにした技術が知られている(特許文献1参照)。
特許第5445722号公報
本開示は、予め保管されている複数の学習済みモデルから、ユーザ側装置での利用に最適な学習済みモデルを選択して提供することを主目的とする。
本開示の学習済みモデル提供方法は、ユーザ側装置から、センシングデータに該データの属性情報を付したデータであるテストデータを取得し、前記テストデータを、データベースに予め保管されている複数の学習済みモデルのそれぞれに当てはめることにより、前記複数の学習済みモデルのそれぞれの性能を算出し、前記算出された性能に基づいて、前記複数の学習済みモデルから前記ユーザ側装置に提供する学習済みモデルを選択することを特徴とする。
本開示によれば、データベースに予め保管されている複数の学習済みモデルから、ユーザ側装置での利用に最適な学習済みモデルを選択して提供することが可能となる。
図1は、本開示の学習済みモデル提供システムの全体構成図である。 図2Aは、サーバ装置の概略構成を示すブロック図である。 図2Bは、サーバ装置の記憶部の概略構成を示すブロック図である。 図3は、ユーザ側装置の概略構成を示すブロック図である。 図4は、学習済みモデル提供装置の動作手順を示すシーケンス図である。 図5は、別の実施形態に係る学習済みモデル提供装置の動作手順を示すシーケンス図である。
上記課題を解決するためになされた第1の開示は、ユーザ側装置から、センシングデータに該データの属性情報を付したデータであるテストデータを取得し、前記テストデータを、データベースに予め保管されている複数の学習済みモデルのそれぞれに当てはめることにより、前記複数の学習済みモデルのそれぞれの性能を算出し、前記算出された性能に基づいて、前記複数の学習済みモデルから前記ユーザ側装置に提供する学習済みモデルを選択することを特徴とする学習済みモデル提供方法である。
この第1の開示に係る学習済みモデル提供方法によれば、ユーザ側装置から取得したテストデータを使用して算出した性能に基づいて、データベースに予め保管されている複数の学習済みモデルからユーザ側装置に提供する学習済みモデルを選択することができる。
これにより、データベースに予め保管されている複数の学習済みモデルからユーザ側装置での利用に最適な学習済みモデルを選択して提供することが可能となる。
また、第2の開示は、ユーザ側装置から、センシングデータに該データの属性情報を付したデータであるテストデータを取得し、前記テストデータを、データベースに予め保管されている複数の学習済みモデルのそれぞれに対して当てはめることにより、前記複数の学習済みモデルのそれぞれの性能を算出し、前記算出された性能に基づいて、前記複数の学習済みモデルからファインチューニング用の学習済みモデルを決定し、前記テストデータを使用して、前記決定されたファインチューニング用の学習済みモデルのファインチューニングを行い、前記テストデータを、前記ファインチューニングされた学習済みモデルに当てはめることにより、前記ファインチューニングされた学習済みモデルの性能を算出し、前記算出された性能に基づいて、前記ファインチューニングされた学習済みモデルから前記ユーザ側装置に提供する学習済みモデルを選択することを特徴とする学習済みモデル提供方法である。
この第2の開示に係る学習済みモデル提供方法によれば、ユーザ側装置から取得したテストデータを使用して算出した性能に基づいて決定された学習済みモデルに対してファインチューニングを行うことができるので、ユーザ側装置での利用により最適な学習済みモデルを提供することが可能となる。
また、第3の開示は、上記第2の開示において、前記ユーザ側装置から、前記テストデータを使用してファインチューニングされた学習済みモデルの第三者への提供の可否についての情報を取得し、前記ファインチューニングされた学習済みモデルの第三者への提供を否とする旨の情報を取得した場合は、該ファインチューニングされた学習済みモデルの第三者への提供は行わないことを特徴とする。
この第3の開示に係る学習済みモデル提供方法によれば、ユーザ側装置から取得したテストデータを使用してファインチューニングされた学習済みモデルの第三者への提供を防止することができるので、ユーザ側装置のユーザのプライバシーを保護することが可能となる。
また、第4の開示は、上記第1の開示または第2の開示において、前記選択された学習済みモデルの機能および生成環境の少なくとも一方の情報であるモデル情報を前記ユーザ側装置に提示し、前記ユーザ側装置から、該ユーザ側装置での利用が決定された前記学習済みモデルを示す情報を取得したときに、前記ユーザ側装置での利用が決定された前記学習済みモデルを前記ユーザ側装置に提供することを特徴とする。
この第4の開示に係る学習済みモデル提供方法によれば、ユーザ側装置のユーザが、前記選択された学習済みモデルのモデル情報に基づいて、ユーザ側装置で利用する学習済みモデルを決定することが可能となる。
また、第5の開示は、上記第1の開示または第2の開示において、前記選択された学習済みモデルに対して該学習済みモデルの推奨度を付与するとともに、前記選択された学習済みモデルの前記推奨度を示す情報を前記ユーザ側装置に提示し、前記ユーザ側装置から、該ユーザ側装置での利用が決定された前記学習済みモデルを示す情報を取得したときに、前記ユーザ側装置での利用が決定された前記学習済みモデルを前記ユーザ側装置に提供することを特徴とする。
この第5の開示に係る学習済みモデル提供方法によれば、ユーザ側装置のユーザが、前記選択された学習済みモデルの推奨度に基づいて、ユーザ側装置で利用する学習済みモデルを決定することが可能となる。
また、第6の開示は、上記第5の開示において、前記推奨度は、前記学習済みモデルの利用実績、前記学習済みモデルの評価、前記学習済みモデルの生成に使用された学習データ数のうちの少なくとも1つに基づいて決定されることを特徴とする。
この第6の開示に係る学習済みモデル提供方法によれば、前記奨励度を容易かつ適切に決定することができる。
また、第7の開示は、1または複数のプロセッサと、複数の学習済みモデルを予め保管しているデータベースと、ユーザ側装置との間で通信を行う通信部とを備え、前記プロセッサは、前記ユーザ側装置から、センシングデータに該データの属性情報を付したデータであるテストデータを取得し、前記テストデータを、前記複数の学習済みモデルのそれぞれに当てはめることにより、前記複数の学習済みモデルのそれぞれの性能を算出し、前記算出された性能に基づいて、前記複数の学習済みモデルから前記ユーザ側装置に提供する学習済みモデルを選択することを特徴とする学習済みモデル提供装置である。
この第7の開示に係る学習済みモデル提供装置によれば、ユーザ側装置から取得したテストデータを使用して算出した性能に基づいて、データベースに予め保管されている複数の学習済みモデルからユーザ側装置に提供する学習済みモデルを選択することができる。
これにより、データベースに予め保管されている複数の学習済みモデルからユーザ側装置での利用に最適な学習済みモデルを選択して提供することが可能となる。
また、第8の開示は、1または複数のプロセッサと、複数の学習済みモデルを予め保管しているデータベースと、ユーザ側装置との間で通信を行う通信部とを備え、前記プロセッサは、前記ユーザ側装置から、センシングデータに該データの属性情報を付したデータであるテストデータを取得し、前記テストデータを、前記複数の学習済みモデルのそれぞれに対して当てはめることにより、前記複数の学習済みモデルのそれぞれの性能を算出し、前記算出された性能に基づいて、前記複数の学習済みモデルからファインチューニング用の学習済みモデルを決定し、前記テストデータを使用して、前記決定されたファインチューニング用の学習済みモデルのファインチューニングを行い、前記テストデータを、前記ファインチューニングされた学習済みモデルに当てはめることにより、前記ファインチューニングされた学習済みモデルの性能を算出し、前記算出された性能に基づいて、前記ファインチューニングされた学習済みモデルから前記ユーザ側装置に提供する学習済みモデルを選択することを特徴とする学習済みモデル提供装置である。
この第8の開示に係る学習済みモデル提供装置によれば、ユーザ側装置から取得したテストデータを使用して算出した性能に基づいて決定された学習済みモデルに対してファインチューニングを行うことができるので、ユーザ側装置での利用により最適な学習済みモデルを提供することが可能となる。
また、第9の開示は、上記第8の開示において、前記プロセッサは、前記ユーザ側装置から、前記テストデータを使用してファインチューニングされた学習済みモデルの第三者への提供の可否についての情報を取得し、前記ファインチューニングされた学習済みモデルの第三者への提供を否とする旨の情報を取得した場合は、該ファインチューニングされた学習済みモデルの第三者への提供は行わないことを特徴とする。
この第9の開示に係る学習済みモデル提供装置によれば、ユーザ側装置から取得したテストデータを使用してファインチューニングされた学習済みモデルの第三者への提供を防止することができるので、ユーザ側装置のユーザのプライバシーを保護することが可能となる。
また、第10の開示は、上記第7の開示または第8の開示において、前記プロセッサは、前記選択された学習済みモデルの機能および生成環境の少なくとも一方の情報であるモデル情報を前記ユーザ側装置に提示し、前記ユーザ側装置から、該ユーザ側装置での利用が決定された前記学習済みモデルを示す情報を取得したときに、前記ユーザ側装置での利用が決定された前記学習済みモデルを前記ユーザ側装置に提供することを特徴とする。
この第10の開示に係る学習済みモデル提供装置によれば、ユーザ側装置のユーザが、前記選択された学習済みモデルのモデル情報に基づいて、ユーザ側装置で利用する学習済みモデルを決定することが可能となる。
また、第11の開示は、上記第7の開示または第8の開示において、前記プロセッサは、前記選択された学習済みモデルに対して該学習済みモデルの推奨度を付与するとともに、前記選択された学習済みモデルの前記推奨度を示す情報を前記ユーザ側装置に提示し、前記ユーザ側装置から、該ユーザ側装置での利用が決定された前記学習済みモデルを示す情報を取得したときに、前記ユーザ側装置での利用が決定された前記学習済みモデルを前記ユーザ側装置に提供することを特徴とする。
この第11の開示に係る学習済みモデル提供装置によれば、ユーザ側装置のユーザが、前記選択された学習済みモデルの推奨度に基づいて、ユーザ側装置で利用する学習済みモデルを決定することが可能となる。
また、第12の開示は、上記第11の開示において、前記推奨度は、前記学習済みモデルの利用実績、前記学習済みモデルの評価、前記学習済みモデルの生成に使用された学習データ数のうちの少なくとも1つに基づいて決定されることを特徴とする。
この第12の開示に係る学習済みモデル提供装置によれば、前記推奨度を容易かつ適切に決定することができる。
以下、本開示の実施形態について、図面を参照しながら説明する。
近年、画像認識や音声認識等の分野においてニューラルネットワークを利用した機械学習技術の研究開発の進展が目覚ましい。特に深層学習(ディープラーニング)という技術を用いると、従来の特徴量ベースによる画像認識・音声認識技術では得られなかった認識精度を実現できる例が報告されており、様々な産業への応用も検討されている。深層学習では、学習用の画像データや音声データを多層型ニューラルネットワークの入力層に入力したときに、正しい認識結果である出力データ(正解データ)が出力層から出力されるように学習処理が行われる。出力データは、典型的には入力データに対するアノテーションやメタデータであり、例えば、画像であれば写っている対象物の名称や種類・属性など、音声であれば発声された単語や文などであり得る。深層学習の学習処理は、ニューラルネットワークを構成する各ノード間の結合(シナプス結合)の重み値を、既知のアルゴリズムを用いて更新する(例えば逆誤差伝搬法では、出力層での正解との誤差を小さくするように重み値を調整・更新する等)ことによって行われる。学習処理が完了したノード間の重み値の集合体は「学習済みモデル」と呼ばれ、学習処理で用いたニューラルネットワークと同じ構成を持つニューラルネットワークに対して学習済みモデルを適用する(ノード間結合の重み値として設定する)ことで、未知の入力データ、すなわち学習処理で用いていない新たな入力データをそのニューラルネットワークに入力した際に、出力データ(認識結果)として、一定の精度で正解データを出力させることができる。したがって、学習済みモデルの生成(すなわち学習処理)を行う装置と異なる装置において、学習済みモデルを用いたニューラルネットワークを構成して認識処理を実行することで、学習した認識精度で画像認識や音声認識を行うことが可能となる。
学習済みモデルは学習用のデータに対して所定の基準で性能の最適化を試みたモデルである。よって一般的には、学習用のデータとは異なる実際のデータに対して学習済みモデルがどのような性能を発揮するかを検証するためには、実際のデータを得ながら運用を行うことが必要とされていた。発明者らは複数の学習済みモデルの中から特定の学習済みモデルを選択することは複雑な問題であると考えた。複数の学習済みモデルの中から適した学習済みモデルを選択するために、この運用を複数の学習済みモデルに対して行うことには膨大な試験期間が必要と考えられるため現実的ではないからである。
本開示に係る学習済みモデル提供システム1は、ユーザ側装置から取得した利用要求に応じて、データベースに予め保管されている複数の学習済みモデルからユーザ側装置の利用目的に適合する1または複数の学習済みモデルを選択してユーザ側装置に提供するためのシステムである。本明細書でいう学習済みモデルとは、学習データおよび正解データ(教師データ)に基づき、機械学習(例えば、多層構造のニューラルネットワークを用いた深層学習、サポートベクターマシン、ブースティング、強化学習等)により生成したモデルのことである。
図1は、本開示に係る学習済みモデル提供システム1の全体構成図である。図1に示すように、本開示に係る学習済みモデル提供システム1は、複数の学習済みモデルを予め保管している学習済みモデル提供装置2(以降、「サーバ装置」と称する)と、サーバ装置2から学習済みモデルの提供を受けるユーザ側装置3とを備えて構成されている。サーバ装置2とユーザ側装置3とは、インターネット等のネットワークを介して互いに接続されている。
サーバ装置2は、一般的なコンピュータ装置であり、複数の学習済みモデルを後述する学習済みモデルデータベース27(図2B参照)に保管している。そして、サーバ装置2は、ユーザ側装置3から利用目的を含む利用要求を受信したときに、その利用目的に適合する学習済みモデルを学習済みモデルデータベース27に保管されている複数の学習済みモデルから選択してユーザ側装置3に送信する。このように、サーバ装置2は、予め保管されている学習済みモデルをユーザ側装置3に提供するためのクラウドサーバとして構成してもよい。
図2Aは、サーバ装置2の概略構成を示すブロック図であり、図2Bは、サーバ装置2の記憶部の概略構成を示すブロック図である。図2Aに示すように、サーバ装置2は、記憶部21、プロセッサ22、表示部23、入力部24、通信部25、およびそれらを接続するバス26を備えている。
記憶部21は、例えばROM(Read Only Memory)やハードディスク等の記憶装置(ストレージ)であり、サーバ装置2の各機能を実現するための各種プログラムおよび各種データを格納している。また、記憶部21は、図2Bに示すように、学習済みモデルデータベース27を格納している。プロセッサ22は、例えばCPU(Central Processing Unit)であり、記憶部21から各種プログラムおよび各種データを図示しないRAM(Random Access Memory)上に読み出して、サーバ装置2の各処理を実行する。表示部23は、液晶表示パネル等のディスプレイなどで構成され、プロセッサ22での処理結果の表示等に使用される。入力部24は、キーボードやマウス等の入力デバイスなどで構成され、サーバ装置2の操作に使用される。通信部25は、インターネット等のネットワークを介して、ユーザ側装置3との間で通信を行う。
学習済みモデルデータベース27には、複数の学習済みモデルが予め保管されている。また、学習済みモデルデータベース27には、複数の学習済みモデルのそれぞれについて、その学習済みモデルの機能および生成環境の少なくとも一方の情報であるモデル情報が予め記憶されている。モデル情報は、保管モデル情報、生成環境情報、および必要リソース情報を含む。
保管モデル情報は、その学習済みモデルの機能、その学習済みモデルの性能、その学習済みモデルの利用対価、およびその学習済みモデルの生成に使用された学習データ(センシングデータ)のデータ数のうちの少なくとも1つに関する情報を含む。
学習済みモデルの機能とは、その学習済みモデルの使用目的または使用用途である。例えば、その学習済みモデルが人物を含む撮像画像から前記人物についての何らかの推定を行う学習済みモデルである場合は、学習済みモデルの機能の例としては、顔検出機能、人体検出機能、動き検出機能、姿勢検出機能、人物属性推定機能、人物行動予測機能等が挙げられる。なお、学習済みモデルの機能は、これらに限定されるものではなく、学習済みモデルの使用目的に応じて様々な機能であり得る。学習済みモデルの性能は、例えば、その学習済みモデルを利用して画像解析処理等の処理を行ったときの正解率(正解度)、適合率、再現率、ニューラルネットワークモデルの種類や階層数等である。学習済みモデルの利用対価は、例えば、仮想通貨やポイント等である。
生成環境情報は、学習済みモデルの生成に使用された学習データ(センシングデータ)の取得環境に関する情報であり、具体的には、学習データの取得条件、および学習データを取得するのに使用された装置の設置環境の少なくとも一方に関する情報を含む。例えば、学習データが撮像画像であり、学習データを取得するのに使用された装置がカメラである場合は、学習データの取得条件の例としては、撮像時刻(例えば、昼、夜等)、撮像環境(例えば、天候、照度等)、カメラの数、カメラの各種の撮像パラメータ(例えば、設置高さ、撮像角度、焦点距離、ズーム倍率、解像度等)などが挙げられ、学習データを取得するのに使用された装置(カメラ)の設置環境の例としては、カメラの設置された場所(例えば、コンビニ、駅、ショッピングモール、工場、空港等)、カメラの周囲の環境(例えば、屋外、屋内等)などが挙げられる。
必要リソース情報は、その学習済みモデルを利用するのに必要な装置の資源または能力に関する情報であり、具体的には、その学習済みモデルを利用して処理を行うコンピュータ装置の資源および能力(リソースおよびスペック)、およびそのコンピュータ装置でその学習済みモデルを利用するときに使用されるユーザ側データを取得するのに使用される装置(例えばカメラ)の資源および能力(リソースおよびスペック)に関する情報を含む。コンピュータ装置の資源または能力には、そのコンピュータ装置が有する、CPUの種類、GPUの種類(または個数)、OS、ニューラルネットワークモデルの種類や階層数等も含まれる。
ユーザ側装置3は、一般的なコンピュータ装置であり、サーバ装置2から提供された学習済みモデルを使用して画像解析処理や新たな機械学習等の処理を行うのに使用される。前述したように、サーバ装置2からユーザ側装置3への学習済みモデルの提供は、ユーザ側装置3がサーバ装置2に対して利用要求を送信することによりなされる。
図3は、ユーザ側装置3の概略構成を示すブロック図である。図3に示すように、ユーザ側装置3は、記憶部31、プロセッサ32、表示部33、入力部34、通信部35、およびそれらを接続するバス36を備えている。
記憶部31は、例えばROMやハードディスク等の記憶装置(ストレージ)であり、ユーザ側装置3の各機能を実現するための各種プログラムおよび各種データを格納している。プロセッサ32は、例えばCPUであり、記憶部31から各種プログラムおよび各種データを図示しないRAM上に読み出して、ユーザ側装置3の各処理を実行する。表示部33は、液晶表示パネル等のディスプレイなどで構成され、プロセッサ32での処理結果の表示等に使用される。入力部34は、キーボードやマウス等の入力デバイスなどで構成され、ユーザ側装置3の操作に使用される。通信部35は、インターネット等のネットワークを介して、サーバ装置2との間で通信を行う。
なお、学習済みモデル提供システム1の上記の各装置は、コンピュータ装置に限らず、同様の機能を果たすことが可能な他の情報処理装置(例えばサーバ等)を用いることもできる。また、学習済みモデル提供システム1の上記の各装置の機能の少なくとも一部を他の公知のハードウェアによる処理によって代替してもよい。
図4は、学習済みモデル提供システム1の動作手順を示すシーケンス図である。以下、図4のシーケンス図を参照して、学習済みモデル提供システム1のサーバ装置2およびユーザ側装置3の動作手順について説明する。
まず、ユーザ側装置3のユーザが入力部34を操作して、ユーザ側装置3にテストデータを入力する(ステップST101)。このテストデータは、サーバ装置2に保管されている学習済みモデルのテストデータとして使用される。本実施形態では、テストデータはユーザの顔画像であり、ユーザ側装置3に接続された図示しないカメラで撮像したユーザの顔画像(センシングデータ)をテストデータとして使用する。また、テストデータには、そのテストデータの属性情報を添付する。この属性情報は、テストデータを使用して学習済みモデルの性能を算出するときに、正解情報として使用される。本実施形態では、テストデータはユーザの顔画像であるので、ユーザの年齢や性別等を示す情報がテストデータの属性情報として添付される。属性情報の添付作業は、ユーザがユーザ側装置3の入力部34を操作して行うとよい。
ユーザ側装置3に入力されたテストデータは、インターネット等のネットワークを介して、サーバ装置2に送信される(ステップST102)。
サーバ装置2は、ユーザ側装置3からテストデータを受信すると、そのテストデータを学習済みモデルデータベース27に保管されている複数の学習済みモデルのそれぞれに対して当てはめて、それぞれの学習済みモデルの性能を算出する(ステップST103)。また、学習済みモデルの性能の算出には、テストデータに添付された属性情報も使用される。具体的には、学習済みモデルにテストデータを当てはめることにより推定された情報と、テストデータに添付されている属性情報とを比較することによって、学習済みモデルの性能が算出される。本実施形態では、学習済みモデルの性能として正解率(正解度)を用いる。正解率の算出は、公知の手法を用いて行われる。なお、学習済みモデルの出力形式に応じて、正解率以外にも、適合率や再現率等の様々な指標を学習済みモデルの性能として用いることができる。
続いて、サーバ装置2は、算出された正解率に基づいて、学習済みモデルデータベース27に保管されている複数の学習済みモデルから、1または複数のファインチューニング用モデルを選択して決定する(ステップST104)。例えば、正解率が予め定められた閾値を超えた学習済みモデル、または正解率が予め定められた順位よりも上位の学習済みモデルをファインチューニング用モデルとして選択するとよい。
次に、サーバ装置2は、テストデータを使用して、選択されたファインチューニング用モデルのファインチューニングを行う(ステップST105)。選択されたファインチューニング用モデルが複数存在する場合は、それぞれのファインチューニング用モデルに対してファインチューニングを行う。なお、本明細書でいうファインチューニングとは、追加的な学習データを使用して行う追加学習のことである。本開示では、テストデータを追加的な学習データとして使用する。ファインチューニングは、公知の手法を用いて行われる。
続いて、サーバ装置2は、上述したステップST103と同様に、ファインチューニングされた学習済みモデルに対してテストデータを当てはめて、ファインチューニングされた学習済みモデルの正解率を算出する(ステップST106)。ファインチューニングされた学習済みモデルが複数存在する場合は、それぞれのファインチューニングされた学習済みモデルの正解率を算出する。正解率の算出は、公知の手法を用いて行われる。なお、学習済みモデルの出力形式に応じて、正解率以外にも、適合率や再現率等の様々な指標を学習済みモデルの性能として用いることができる。
そして、サーバ装置2は、算出された正解率に基づいて、ファインチューニングされた学習済みモデルから、ユーザ側装置3に提供する1または複数の学習済みモデルを選択する(ステップST107)。上述したステップST104と同様に、例えば、正解率が予め定められた閾値を超えた学習済みモデル、または正解率が予め定められた順位よりも上位の学習済みモデルをユーザ側装置3に提供する学習済みモデルとして選択するとよい。
なお、ファインチューニングされた学習済みモデル以外にも、ファインチューニングする前の学習済みモデルも選択対象に含めてもよい。すなわち、ファインチューニングされた学習済みモデルおよびファインチューニングする前の学習済みモデルから、それぞれの学習済みモデルの正解率に基づいて、ユーザ側装置3に提供する学習済みモデルを選択するようにしてもよい。
次に、サーバ装置2は、上記の選択された学習済みモデルに対して、その学習済みモデルの推奨度を付与する(ステップST108)。選択された学習済みモデルが複数存在する場合は、選択された学習済みモデルのそれぞれに対して推奨度を付与する。推奨度は、その学習済みモデルの利用実績、その学習済みモデルの評価、およびその学習済みモデルの生成に使用された学習データ数のうちの少なくとも1つに基づいて決定される。利用実績は、その学習済みモデルの利用履歴を用いるとよい。評価は、インターネット等のネットワークを介して外部から取得した評価や評判等を用いるとよい。利用履歴および評価は、その学習済みモデルに紐付けて学習済みモデルデータベース27に予め記憶させておくとよい。
そして、サーバ装置2は、上記の選択された学習済みモデルのモデル情報および推奨度をユーザ側装置3に送信する(ステップST109)。前述したように、モデル情報は、学習済みモデルデータベース27に予め記憶されている。これにより、ユーザ側装置3のユーザに対して、サーバ装置2で選択された学習済みモデルのモデル情報および推奨度を提示することができる。
ユーザ側装置3がサーバ装置2から上記の選択された学習済みモデルのモデル情報および推奨度を受信すると、ユーザ側装置3は受信した情報を示す画面を表示部33に表示する。ユーザ側装置3のユーザは、表示部33に表示されたそれらの情報を確認して、ユーザ側装置3で利用する学習済みモデルを決定する(ステップST110)。具体的には、ユーザ側装置3のユーザは、上記の選択された学習済みモデルが1つである場合は、その学習済みモデルの利用を承諾するか否かを決定し、上記の選択された学習済みモデルが複数存在する場合は、その複数の学習済みモデルのうちのいずれかの学習済みモデルの利用を決定するか、またはいずれの学習済みモデルも利用しないことを決定する。
ユーザ側装置3のユーザの決定結果は、入力部34を介してユーザ側装置3に入力される。ユーザ側装置3に入力された決定結果は、決定通知として、ユーザ側装置3からサーバ装置2に送信される(ステップST111)。そして、サーバ装置2は、ユーザ側装置3から受信した決定通知に基づき、ユーザ側装置3で決定された学習済みモデルをユーザ側装置3に送信する(ステップST112)。
このようにして、本開示に係る学習済みモデル提供システム1では、サーバ装置2は、ユーザ側装置3から取得したテストデータを使用して算出した性能に基づいて、学習済みモデルデータベース27に予め保管されている複数の学習済みモデルからユーザ側装置3に提供する学習済みモデルを選択することができる。これにより、学習済みモデルデータベース27に予め保管されている複数の学習済みモデルから、ユーザ側装置3での利用に最適な学習済みモデルを選択して提供することが可能となる。
また、本開示に係る学習済みモデル提供システム1では、サーバ装置2は、ユーザ側装置3から取得したテストデータを使用して算出した性能に基づいて決定された学習済みモデルに対してファインチューニングを行うことができるので、ユーザ側装置3での利用により最適な学習済みモデルを提供することが可能となる。
また、本開示に係る学習済みモデル提供システム1では、サーバ装置2で選択された学習済みモデルのモデル情報および推奨度をユーザ側装置3のユーザに対して提示することができるので、ユーザ側装置3のユーザが、それらの情報に基づいてユーザ側装置3で利用する学習済みモデルを決定することが可能となる。
なお、ユーザ側装置3からサーバ装置2にテストデータを送信するときに、そのテストデータを使用してファインチューニングされた学習済みモデルの第三者への提供の可否を示す情報も送信するようにしてもよい。具体的には、図5のシーケンス図に示すように、ステップST101でのテストデータの入力後に、ユーザ側装置3のユーザが入力部34を操作して、ユーザ側装置3に、テストデータを使用してファインチューニングされた学習済みモデルの第三者への提供の可否を入力する(ステップST201)。ユーザ側装置3に入力された、ファインチューニングされた学習済みモデルの第三者への提供の可否を示す情報は、テストデータとともに、インターネット等のネットワークを介して、サーバ装置2に送信される(ステップST202)。
そして、サーバ装置2は、ユーザ側装置3から、ファインチューニングされた学習済みモデルの第三者への提供を否とする旨の情報を取得した場合は、そのファインチューニングされた学習済みモデルを、他のユーザ側装置等の第三者に提供しないようにする。具体的には、ファインチューニングされた学習済みモデルを保管するデータベース(学習済みモデルデータベース27または他のデータベース)において、第三者への提供が否とされたファインチューニングされた学習済みモデルに対して、第三者への提供を禁止する禁止フラグを記入することにより、その学習済みモデルの第三者への提供を禁止する処理を行う(ステップST203)。ユーザ側装置3から、ファインチューニングされた学習済みモデルの第三者への提供を可とする旨の情報を取得した場合は、この第三者への提供を禁止する処理は行わない。このようにすると、ファインチューニングされた学習済みモデルの第三者への提供を防止することができるので、ユーザ側装置3のユーザのプライバシーを保護することが可能となる。
以上、本開示を特定の実施形態に基づいて説明したが、これらの実施形態はあくまでも例示であって、本開示はこれらの実施形態によって限定されるものではない。なお、上記実施形態に示した本開示に係る学習済みモデル提供方法および学習済みモデル提供装置の各構成要素は、必ずしも全てが必須ではなく、少なくとも本開示の範囲を逸脱しない限りにおいて適宜取捨選択することが可能である。
例えば、本実施形態では、ユーザ側装置3から取得したテストデータを使用して算出した性能に基づいて決定された学習済みモデルに対してファインチューニングを行ったが、このファインチューニングは必須ではなく、省略してもよい。
また、本実施形態では、学習済みモデルを選択した後にユーザ側装置3にモデル情報および推奨度の両方を提示したが、モデル情報および推奨度の一方だけを提示するようにしてもよい。また、このモデル情報および推奨度の提示は必須ではなく、省略してもよい。
また、本実施形態では、学習データおよびユーザ側データ(センシングデータ)として画像データを例に挙げたが、学習データおよびユーザ側データは、画像データに限定されるものではなく、例えば、音、温度、湿度、振動、天候等のデータであってもよい。本開示に係る学習済みモデル提供方法および学習済みモデル提供装置は、例えば製造、物流、公共サービス、交通、医療、教育、金融等の様々な分野における様々なデータを使用する学習済みモデルに適用可能である。
本開示に係る学習済みモデル提供方法および学習済みモデル提供装置は、データベースに予め保管されている複数の学習済みモデルから、ユーザ側装置での利用に最適な学習済みモデルを選択して提供することを可能とする学習済みモデル提供方法および学習済みモデル提供装置して有用である。
1 学習済みモデル提供システム
2 学習済みモデル提供装置(サーバ装置)
3 ユーザ側装置
22 プロセッサ
25 通信部
27 学習済みモデルデータベース

Claims (12)

  1. ユーザ側装置から、センシングデータに該データの属性情報を付したデータであるテストデータを取得し、
    前記テストデータを、データベースに予め保管されている複数の学習済みモデルのそれぞれに当てはめることにより、前記複数の学習済みモデルのそれぞれの性能を算出し、
    前記算出された性能に基づいて、前記複数の学習済みモデルから前記ユーザ側装置に提供する学習済みモデルを選択する
    ことを特徴とする学習済みモデル提供方法。
  2. ユーザ側装置から、センシングデータに該データの属性情報を付したデータであるテストデータを取得し、
    前記テストデータを、データベースに予め保管されている複数の学習済みモデルのそれぞれに対して当てはめることにより、前記複数の学習済みモデルのそれぞれの性能を算出し、
    前記算出された性能に基づいて、前記複数の学習済みモデルからファインチューニング用の学習済みモデルを決定し、
    前記テストデータを使用して、前記決定されたファインチューニング用の学習済みモデルのファインチューニングを行い、
    前記テストデータを、前記ファインチューニングされた学習済みモデルに当てはめることにより、前記ファインチューニングされた学習済みモデルの性能を算出し、
    前記算出された性能に基づいて、前記ファインチューニングされた学習済みモデルから前記ユーザ側装置に提供する学習済みモデルを選択する
    ことを特徴とする学習済みモデル提供方法。
  3. 前記ユーザ側装置から、前記テストデータを使用してファインチューニングされた学習済みモデルの第三者への提供の可否についての情報を取得し、
    前記ファインチューニングされた学習済みモデルの第三者への提供を否とする旨の情報を取得した場合は、該ファインチューニングされた学習済みモデルの第三者への提供は行わない
    ことを特徴とする請求項2に記載の学習済みモデル提供方法。
  4. 前記選択された学習済みモデルの機能および生成環境の少なくとも一方の情報であるモデル情報を前記ユーザ側装置に提示し、
    前記ユーザ側装置から、該ユーザ側装置での利用が決定された前記学習済みモデルを示す情報を取得したときに、前記ユーザ側装置での利用が決定された前記学習済みモデルを前記ユーザ側装置に提供する
    ことを特徴とする請求項1または請求項2に記載の学習済みモデル提供方法。
  5. 前記選択された学習済みモデルに対して該学習済みモデルの推奨度を付与するとともに、前記選択された学習済みモデルの前記推奨度を示す情報を前記ユーザ側装置に提示し、
    前記ユーザ側装置から、該ユーザ側装置での利用が決定された前記学習済みモデルを示す情報を取得したときに、前記ユーザ側装置での利用が決定された前記学習済みモデルを前記ユーザ側装置に提供する
    ことを特徴とする請求項1または請求項2に記載の学習済みモデル提供方法。
  6. 前記推奨度は、前記学習済みモデルの利用実績、前記学習済みモデルの評価、前記学習済みモデルの生成に使用された学習データ数のうちの少なくとも1つに基づいて決定される
    ことを特徴とする請求項5に記載の学習済みモデル提供方法。
  7. 1または複数のプロセッサと、
    複数の学習済みモデルを予め保管しているデータベースと、
    ユーザ側装置との間で通信を行う通信部とを備え、
    前記プロセッサは、
    前記ユーザ側装置から、センシングデータに該データの属性情報を付したデータであるテストデータを取得し、
    前記テストデータを、前記複数の学習済みモデルのそれぞれに当てはめることにより、前記複数の学習済みモデルのそれぞれの性能を算出し、
    前記算出された性能に基づいて、前記複数の学習済みモデルから前記ユーザ側装置に提供する学習済みモデルを選択する
    ことを特徴とする学習済みモデル提供装置。
  8. 1または複数のプロセッサと、
    複数の学習済みモデルを予め保管しているデータベースと、
    ユーザ側装置との間で通信を行う通信部とを備え、
    前記プロセッサは、
    前記ユーザ側装置から、センシングデータに該データの属性情報を付したデータであるテストデータを取得し、
    前記テストデータを、前記複数の学習済みモデルのそれぞれに対して当てはめることにより、前記複数の学習済みモデルのそれぞれの性能を算出し、
    前記算出された性能に基づいて、前記複数の学習済みモデルからファインチューニング用の学習済みモデルを決定し、
    前記テストデータを使用して、前記決定されたファインチューニング用の学習済みモデルのファインチューニングを行い、
    前記テストデータを、前記ファインチューニングされた学習済みモデルに当てはめることにより、前記ファインチューニングされた学習済みモデルの性能を算出し、
    前記算出された性能に基づいて、前記ファインチューニングされた学習済みモデルから前記ユーザ側装置に提供する学習済みモデルを選択する
    ことを特徴とする学習済みモデル提供装置。
  9. 前記プロセッサは、
    前記ユーザ側装置から、前記テストデータを使用してファインチューニングされた学習済みモデルの第三者への提供の可否についての情報を取得し、
    前記ファインチューニングされた学習済みモデルの第三者への提供を否とする旨の情報を取得した場合は、該ファインチューニングされた学習済みモデルの第三者への提供は行わない
    ことを特徴とする請求項8に記載の学習済みモデル提供装置。
  10. 前記プロセッサは、
    前記選択された学習済みモデルの機能および生成環境の少なくとも一方の情報であるモデル情報を前記ユーザ側装置に提示し、
    前記ユーザ側装置から、該ユーザ側装置での利用が決定された前記学習済みモデルを示す情報を取得したときに、前記ユーザ側装置での利用が決定された前記学習済みモデルを前記ユーザ側装置に提供する
    ことを特徴とする請求項7または請求項8に記載の学習済みモデル提供装置。
  11. 前記プロセッサは、
    前記選択された学習済みモデルに対して該学習済みモデルの推奨度を付与するとともに、前記選択された学習済みモデルの前記推奨度を示す情報を前記ユーザ側装置に提示し、
    前記ユーザ側装置から、該ユーザ側装置での利用が決定された前記学習済みモデルを示す情報を取得したときに、前記ユーザ側装置での利用が決定された前記学習済みモデルを前記ユーザ側装置に提供する
    ことを特徴とする請求項7または請求項8に記載の学習済みモデル提供装置。
  12. 前記推奨度は、前記学習済みモデルの利用実績、前記学習済みモデルの評価、前記学習済みモデルの生成に使用された学習データ数のうちの少なくとも1つに基づいて決定される
    ことを特徴とする請求項11に記載の学習済みモデル提供装置。
JP2018538805A 2017-02-03 2017-12-11 学習済みモデル提供方法および学習済みモデル提供装置 Active JP7065266B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017018295 2017-02-03
JP2017018295 2017-02-03
PCT/JP2017/044297 WO2018142766A1 (ja) 2017-02-03 2017-12-11 学習済みモデル提供方法および学習済みモデル提供装置

Publications (2)

Publication Number Publication Date
JPWO2018142766A1 true JPWO2018142766A1 (ja) 2019-11-21
JP7065266B2 JP7065266B2 (ja) 2022-05-12

Family

ID=63040434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018538805A Active JP7065266B2 (ja) 2017-02-03 2017-12-11 学習済みモデル提供方法および学習済みモデル提供装置

Country Status (5)

Country Link
US (1) US20190147361A1 (ja)
EP (1) EP3579153A4 (ja)
JP (1) JP7065266B2 (ja)
CN (1) CN109074521A (ja)
WO (1) WO2018142766A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6398894B2 (ja) * 2015-06-30 2018-10-03 オムロン株式会社 データフロー制御装置およびデータフロー制御方法
EP3605405A4 (en) * 2017-03-21 2020-12-02 Preferred Networks, Inc. SERVER DEVICE, TRAINED MODEL DELIVERY PROGRAM, TRAINED MODEL DELIVERY PROCESS, AND DRIVEN MODEL DELIVERY SYSTEM
JP7014782B2 (ja) 2017-05-01 2022-02-01 株式会社Preferred Networks 自動着色方法、自動着色システム及び自動着色装置
JP7252701B2 (ja) 2017-05-23 2023-04-05 株式会社Preferred Networks システム、プログラム、および方法
US10929899B2 (en) * 2017-12-18 2021-02-23 International Business Machines Corporation Dynamic pricing of application programming interface services
JP6925474B2 (ja) * 2018-08-31 2021-08-25 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、情報処理システム、固体撮像装置の動作方法及びプログラム
JP6697042B2 (ja) * 2018-08-31 2020-05-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像システム、固体撮像方法及びプログラム
US20200082279A1 (en) 2018-09-11 2020-03-12 Synaptics Incorporated Neural network inferencing on protected data
JP7024881B2 (ja) * 2018-09-28 2022-02-24 日本電気株式会社 パターン認識装置およびパターン認識方法
WO2020158954A1 (ja) * 2019-02-01 2020-08-06 株式会社コンピュータマインド サービス構築装置、サービス構築方法及びサービス構築プログラム
JP7313515B2 (ja) * 2019-02-28 2023-07-24 三菱電機株式会社 データ処理装置、データ処理システムおよびデータ処理方法
SG11202108534PA (en) * 2019-02-28 2021-09-29 Mitsubishi Electric Corp Data processing device, data processing system, and data processing method
JP2021089446A (ja) * 2019-03-13 2021-06-10 ダイキン工業株式会社 モデルの選定方法および深層強化学習方法
JP7272158B2 (ja) * 2019-07-29 2023-05-12 中国電力株式会社 発電出力算出装置、及び発電出力算出方法
US11218374B2 (en) * 2019-07-30 2022-01-04 Microsoft Technology Licensing, Llc Discovery and resolution of network connected devices
US11399312B2 (en) * 2019-08-13 2022-07-26 International Business Machines Corporation Storage and retention intelligence in mobile networks
JP7252862B2 (ja) * 2019-08-22 2023-04-05 株式会社デンソーテン 制御装置、制御システムおよび制御方法
WO2021038759A1 (ja) * 2019-08-28 2021-03-04 富士通株式会社 モデル選択方法、モデル選択プログラムおよび情報処理装置
JP7051772B2 (ja) * 2019-09-12 2022-04-11 株式会社東芝 提供装置、提供方法及びプログラム
EP3798944A1 (en) * 2019-09-30 2021-03-31 Hoya Lens Thailand Ltd. Learning model generation method, computer program, eyeglass lens selection support method, and eyeglass lens selection support system
US11727284B2 (en) 2019-12-12 2023-08-15 Business Objects Software Ltd Interpretation of machine learning results using feature analysis
US20210264312A1 (en) * 2020-02-21 2021-08-26 Sap Se Facilitating machine learning using remote data
JP7407271B2 (ja) 2020-03-19 2023-12-28 Toa株式会社 Ai制御装置、ai制御装置に接続されるサーバー装置、及びai制御方法
US11580455B2 (en) 2020-04-01 2023-02-14 Sap Se Facilitating machine learning configuration
KR20210123476A (ko) * 2020-04-03 2021-10-14 에스케이하이닉스 주식회사 전자 장치
US20220083913A1 (en) * 2020-09-11 2022-03-17 Actapio, Inc. Learning apparatus, learning method, and a non-transitory computer-readable storage medium
JP2022085356A (ja) * 2020-11-27 2022-06-08 株式会社Jvcケンウッド 機械学習装置、機械学習方法、および学習済みモデル
US20220207444A1 (en) * 2020-12-30 2022-06-30 International Business Machines Corporation Implementing pay-as-you-go (payg) automated machine learning and ai
WO2023199172A1 (en) * 2022-04-11 2023-10-19 Nokia Technologies Oy Apparatus and method for optimizing the overfitting of neural network filters
KR102645690B1 (ko) * 2023-06-13 2024-03-11 주식회사 노타 노드에 대응되는 인공지능 기반의 모델을 제공하기 위한 방법 및 디바이스

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002268684A (ja) * 2001-03-14 2002-09-20 Ricoh Co Ltd 音声認識用音響モデル配信方法
JP2003263097A (ja) * 2002-03-12 2003-09-19 Fujitsu Ltd 教材作成支援方法、教材利用管理方法、サーバ、及びプログラム
JP5408380B1 (ja) * 2013-06-17 2014-02-05 富士ゼロックス株式会社 情報処理プログラム及び情報処理装置
JP2016062381A (ja) * 2014-09-19 2016-04-25 富士ゼロックス株式会社 情報処理装置及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2012250923A1 (en) * 2011-05-04 2013-11-21 Google Inc. Predictive analytical modeling accuracy assessment
US8626791B1 (en) * 2011-06-14 2014-01-07 Google Inc. Predictive model caching
RU2569123C1 (ru) 2012-09-12 2015-11-20 Омрон Корпорейшн Устройство генерации команды управления потоком данных и устройство управления датчиками
GB2543429B (en) * 2015-02-19 2017-09-27 Magic Pony Tech Ltd Machine learning for visual processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002268684A (ja) * 2001-03-14 2002-09-20 Ricoh Co Ltd 音声認識用音響モデル配信方法
JP2003263097A (ja) * 2002-03-12 2003-09-19 Fujitsu Ltd 教材作成支援方法、教材利用管理方法、サーバ、及びプログラム
JP5408380B1 (ja) * 2013-06-17 2014-02-05 富士ゼロックス株式会社 情報処理プログラム及び情報処理装置
JP2016062381A (ja) * 2014-09-19 2016-04-25 富士ゼロックス株式会社 情報処理装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小池誠: "ラズパイにON! Google人工知能 第7章 ほこりや土が舞う環境でも組み込んでしまえば安心 ステ", INTERFACE, JPN6021047683, 1 March 2017 (2017-03-01), pages 45 - 52, ISSN: 0004649377 *

Also Published As

Publication number Publication date
CN109074521A (zh) 2018-12-21
US20190147361A1 (en) 2019-05-16
EP3579153A4 (en) 2020-04-15
EP3579153A1 (en) 2019-12-11
WO2018142766A1 (ja) 2018-08-09
JP7065266B2 (ja) 2022-05-12

Similar Documents

Publication Publication Date Title
JP7065266B2 (ja) 学習済みモデル提供方法および学習済みモデル提供装置
JP7149459B2 (ja) 学習済みモデル提供方法および学習済みモデル提供装置
US10810461B2 (en) Learned model generating method, learned model generating device, and learned model use device
US10692151B1 (en) Homeowners insurance application process using geotagged photos
CN111866607B (zh) 视频片段定位方法、装置、计算机设备及存储介质
US11044206B2 (en) Live video anomaly detection
US11366812B2 (en) Using live data streams and/or search queries to determine information about developing events
US20190295240A1 (en) Image quality scorer machine
CN110633381B (zh) 一种识别虚假房源的方法、装置、存储介质及电子设备
CN111611144B (zh) 用于处理性能测试数据的方法、装置、计算设备和介质
CN110909258B (zh) 一种信息推荐方法、装置、设备及存储介质
JP2018101201A (ja) 施策導入効果予測装置、施策導入効果予測プログラム及び施策導入効果予測方法
US10977735B1 (en) Providing user interaction data associated with a property
KR102656584B1 (ko) 비디오 영상 기반 부동산 정보 관리 서버 및 이를 이용한 부동산 정보 제공 방법
JP2018142137A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2023063807A (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
CN112837083A (zh) 用户行为数据处理方法、装置、计算机设备和存储介质
CN113837986A (zh) 用于识别舌象的方法、装置、电子设备和介质
CN113762037A (zh) 图像识别方法、装置、设备以及存储介质
CN113034580A (zh) 图像信息检测方法、装置和电子设备
US10963480B2 (en) Flexible content integration
CN112214387B (zh) 基于知识图谱的用户操作行为预测方法及装置
US20160314505A1 (en) Crowd sourced estimation system
CN116261129A (zh) 互助服务方法、电子设备及系统
CN116863457A (zh) 自然场景文本识别方法、装置、电子设备及介质

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20180724

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190124

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220307

R151 Written notification of patent or utility model registration

Ref document number: 7065266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151