JP2021526670A - 汎用機械学習モデル、モデルファイルの生成および解析方法 - Google Patents
汎用機械学習モデル、モデルファイルの生成および解析方法 Download PDFInfo
- Publication number
- JP2021526670A JP2021526670A JP2019554861A JP2019554861A JP2021526670A JP 2021526670 A JP2021526670 A JP 2021526670A JP 2019554861 A JP2019554861 A JP 2019554861A JP 2019554861 A JP2019554861 A JP 2019554861A JP 2021526670 A JP2021526670 A JP 2021526670A
- Authority
- JP
- Japan
- Prior art keywords
- data
- model
- machine learning
- general
- purpose machine
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 652
- 238000004458 analytical method Methods 0.000 title description 24
- 238000003860 storage Methods 0.000 claims abstract description 211
- 238000000034 method Methods 0.000 claims abstract description 150
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 45
- 230000003068 static effect Effects 0.000 claims description 90
- 238000004364 calculation method Methods 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 39
- 238000004590 computer program Methods 0.000 claims description 33
- 238000007781 pre-processing Methods 0.000 claims description 23
- 238000004806 packaging method and process Methods 0.000 claims description 14
- 238000013500 data storage Methods 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 abstract description 44
- 238000010586 diagram Methods 0.000 abstract description 12
- 238000012937 correction Methods 0.000 description 45
- 239000000945 filler Substances 0.000 description 21
- 238000009826 distribution Methods 0.000 description 19
- 238000005457 optimization Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 11
- 238000011161 development Methods 0.000 description 11
- 230000004913 activation Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000000354 decomposition reaction Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical group OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/10—Requirements analysis; Specification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/30—Creation or generation of source code
- G06F8/35—Creation or generation of source code model driven
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/43—Checking; Contextual analysis
- G06F8/433—Dependency analysis; Data or control flow analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F8/00—Arrangements for software engineering
- G06F8/40—Transformation of program code
- G06F8/41—Compilation
- G06F8/44—Encoding
- G06F8/447—Target code generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
- G06N3/105—Shells for specifying net layout
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Stored Programmes (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Devices For Executing Special Programs (AREA)
Abstract
Description
本出願は、2018年11月30日に出願した出願番号は201811459853.6で、発明名は「汎用機械学習モデルファイル解析方法、装置、記憶媒体」と、出願番号は201811459679.5で、発明名は「汎用機械学習モデルファイルの生成方法、装置、記憶媒体」と、出願番号は201811457719.2で、発明名は「機械学習セカンダリモデルファイルの生成方法、装置、記憶媒体」と、出願番号は201811456246.4で、発明名は「汎用機械学習セカンダリモデルファイルの解析方法、装置、記憶媒体」との中国特許出願の優先権と、2018年6月8日に出願した出願番号は201810589390.9で、発明名は「汎用機械学習モデルファイルの生成方法、装置、記憶媒体」および出願番号は201810588623.3で、発明名は「汎用機械学習モデルファイルの実行方法、装置、記憶媒体」の中国特許出願の優先権を主張し、参考としてここで全文を引用する。
本出願は、人工知能の分野に係り、特に、汎用機械学習モデル、モデルファイルの生成方法、装置および記憶媒体に関する。
機械学習タスクのタスクパラメータを獲得する。
前記タスクパラメータに対し分類処理を行い、タスク命令およびモデルパラメータを取得する。
前記タスク命令およびモデルパラメータをデータタイプに従って収集し、スタックデータおよびヒープデータを取得する。
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを取得すること。
前記タスクパラメータに対し分類処理を行い、タスク命令およびモデルパラメータを取得する前記ステップは以下を含む。
前記アルゴリズム制御パラメータをコンパイルしてタスク命令を取得する。
前記計算パラメータに対して分類処理を行い、モデルパラメータを取得すること。
前記計算パラメータを前処理して、前処理モデルパラメータを取得する。
前記計算パラメータに従ってハードウェアパラメータを取得する。
前記計算パラメータからデータ属性パラメータを抽出すること。
前記タスク命令に対して分類処理を行い、タスク命令ヒープデータを取得する。
前記データタイプに従ってモデルパラメータに対して分類処理を行い、モデルパラメータスタックデータおよびモデルパラメータヒープデータを取得する。
前記モデルパラメータスタックデータを収集して、前記スタックデータを取得する。
前記モデルパラメータヒープデータを収集して、前記ヒープデータを取得する。
共有属性に従ってモデルパラメータを分類し、共有可能なモデルパラメータおよび共有不可なモデルパラメータを取得する。
共有可能なモデルパラメータを収集して、モデルパラメータヒープデータを取得する。
前記共有不可なモデルパラメータを収集して、モデルパラメータスタックデータを取得する。
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを取得する前記ステップは以下を含む。
前記タスク命令ヒープデータと前記モデルパラメータ静的データをパッケージ化し統合し、連続した静的データブロックを取得する。
前記モデルパラメータ動的データをパッケージ化し統合して、連続した動的データブロックを取得する。
前記モデルパラメータスタックデータをパッケージ化し統合し、スタックデータブロックを取得する。
前記連続した静的データブロックと、前記連続した動的データブロックと、スタックデータブロックとを合併してから、汎用機械学習モデルを取得する。
前記タスク命令に従って、静的データレイアウト情報と、動的データレイアウト情報と、スタックデータレイアウト情報とを取得する。
前記静的データレイアウト情報に従って前記タスク命令ヒープデータと前記モデルパラメータ静的データをパッケージ化し統合し、前記連続した静的データブロックを取得する。
前記動的データレイアウト情報に従って前記モデルパラメータ動的データをパッケージ化し統合して、連続した動的データブロックを取得する。
前記スタックデータレイアウト情報に従って前記モデルパラメータスタックデータをパッケージ化し統合し、前記スタックデータブロックを取得する。
前記連続した静的データブロックと、前記連続した動的データブロックと、スタックデータブロックとを統合する。
計算パラメータの入力データ属性、出力データ属性、および中間結果一時スペース属性を取得する。
前記入力データの属性から前記入力データのデータ量を抽出し、前記入力データの記憶スペースを割り当てる。
前記出力データの属性から前記出力データのデータ量を抽出し、前記出力データの記憶スペースを割り当てる。
前記中間結果一時スペース属性から中間結果一時スペースのデータ量を抽出し、前記中間結果一時記憶スペースを割り当てる。
前記入力データの記憶スペースと出力データの記憶スペースをヒープデータとして格納し、前記中間結果一時記憶スペースをスタックデータとして格納する。
スタックデータレイアウト情報に従って前記共有不可なモデルパラメータと中間結果一時記憶スペースを統合して、前記スタックデータブロックを取得する。
ハードウェアプラットフォーム情報およびハードウェア配置パラメータを取得し、ヒープデータとして格納する。
前記静的データレイアウト情報に従って、前記タスク命令ヒープデータと、共用可能なモデルパラメータと、ハードウェアプラットフォーム情報と、ハードウェア配置パラメータとを統合し、前記連続した静的データブロックを取得する。
前記動的データレイアウト情報に従って、前記入力データ記憶スペースおよび前記出力データ記憶スペースは統合し、前記連続した動的データブロックを取得する。
機械学習タスクのタスクパラメータを取得するために用いられる外部インターフェースモジュールと、
前記タスクパラメータに対し分類処理を行い、タスク命令およびモデルパラメータを生成するために用いられる分類処理モジュールと、
データタイプに従って前記タスク命令およびモデルパラメータを収集して、スタックデータおよびヒープデータが生成するために用いられるパラメータ収集モジュールと、
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを生成するために用いられるモデル生成モジュールとを備える装置。
前記分類処理モジュールは、
前記アルゴリズム制御パラメータをコンパイルしてタスク命令を取得するために用いられるタスク命令生成モジュールと、
前記計算パラメータに対し分類処理を行い、モデルパラメータを取得するために用いられるモデルパラメータ生成モジュールとを備えることを特徴とする装置。
共有可能なモデルパラメータを収集して、モデルパラメータスタックデータを取得するために用いられるモデルパラメータスタックデータ生成モジュールと、
前記共有不可なモデルパラメータを収集して、モデルパラメータヒープデータを取得するために用いられるモデルパラメータヒープデータ生成モジュールとを備える。
静的な前記モデルパラメータヒープデータを収集して、モデルパラメータ静的データを取得するために用いられるモデルパラメータ静的データ生成モジュールと、
動的な前記モデルパラメータヒープデータを収集して、モデルパラメータ動的データを取得するために用いられるモデルパラメータ動的データ生成モジュールとを備える。
前記計算パラメータを前処理して、前処理モデルパラメータを取得するために用いられる前処理モジュールと、
前記計算パラメータに従ってハードウェアパラメータを取得するために用いられるハードウェアパラメータ生成モジュールと、
前記計算パラメータからデータ属性パラメータを抽出するために用いられる属性抽出モジュールとをさらに備える。
前記モデルパラメータスタックデータをパッケージ化し統合し、スタックデータブロックを取得するために用いられるスタックデータ収集器と、
前記モデルパラメータ動的データをパッケージ化し統合して、連続した動的データブロックを取得することために用いられるモデルパラメータ動的データ収集器と、
前記タスク命令ヒープデータと前記モデルパラメータ静的データをパッケージ化し統合し、連続した静的データブロックを取得するために用いられるモデルパラメータ静的データ収集器とを備えることを特徴とする装置。
汎用機械学習モデルを取得する。
前記汎用機械学習モデルを分類と分解して、スタック領域データおよびヒープ領域データを取得する。
前記スタック領域データと、前記ヒープ領域データと、入力データとに基づいて計算を行い、出力データを取得する。
汎用機械学習モデルを取得するためのモデル取得モジュールと、
前記汎用機械学習モデルを分類と分解して、スタック領域データおよびヒープ領域データを取得するためのモデル分解モジュールと、
前記スタック領域データと、前記ヒープ領域データと、入力データと取得して計算を行い、出力データを取得するための結果出力モジュールとを備える。
汎用機械学習モデルにおける共有可能なデータをスタックデータに分解する。
スタックデータをスタック領域に割り当てる。
汎用機械学習モデルにおける共有不可なデータをヒープデータに分解する。
前記ヒープデータをヒープ領域に割り当てる。
前記スタックデータをスタック領域に割り当て、スタック領域データを取得する前記ステップはさらに以下を含む。
前記モデルパラメータスタックデータをモデルパラメータスタック領域に割り当てる。
前記モデルパラメータスタックデータに必要な占有記憶スペースのサイズと中間結果一時記憶スペースのサイズとの合計を計算して、第1の記憶スペースのサイズを取得する。
前記モデルパラメータスタック領域の記憶スペースが割り当てられ、前記モデルパラメータスタック領域の記憶スペースは第1の記憶スペースのサイズ以上である。
実行フェーズにおいて変更したヒープデータは、モデルパラメータ動的データとして格納される。
実行フェーズにおいて変化しないヒープデータはモデルパラメータ静的データとして格納される。
前記ヒープデータをヒープ領域に割り当てる前記ステップは以下を含む。
前記ヒープ領域を、モデルパラメータ動的ヒープ領域およびモデルパラメータ動的ヒープ領域に分割する。
前記モデルパラメータ動的データを前記モデルパラメータ動的ヒープ領域に割り当てる。
前記モデルパラメータ静的データを前記モデルパラメータ静的ヒープ領域に割り当てる。
前記モデルパラメータ動的データの記憶スペースと前記入力データの記憶スペースと前記出力データの記憶スペースとを加算し、第2の記憶スペースのサイズを取得する。
前記モデルパラメータ動的ヒープ領域の記憶スペースが割り当てられ、前記動的データヒープ領域の記憶スペースは第2の記憶スペースのサイズ以上である。
前記ヒープデータをヒープ領域に割り当てる前記ステップはさらに以下を含む。
前記モデルパラメータ動的ヒープ領域と前記モデルパラメータ静的ヒープ領域とは、連続した記憶スペースに割り当てられる。
前記ヒープ領域から前記出力データを抽出する。
前記出力データを出力する。
汎用機械学習モデルを取得するためのモデル取得モジュールと、
前記汎用機械学習モデルを分類と分解して、スタック領域データおよびヒープ領域データを取得するためのモデル分解モジュールと、
前記スタック領域データと、前記ヒープ領域データと、入力データと取得して計算を行い、出力データを取得するための結果出力モジュールとを備える。
スタック領域データ配布モジュールは、汎用機械学習モデルにおける共有不可なデータをスタックデータに分解するために用いられる。
ヒープ領域データ配布モジュールは、汎用機械学習モデルにおける共有可能なデータをヒープデータに分解するために用いられる。
前記モデルパラメータ静的データをモデルパラメータ静的ヒープ領域に割り当てるために用いられるモデルパラメータ静的データ配布モジュールと、
前記モデルパラメータ動的データをモデルパラメータ動的ヒープ領域に割り当てるために用いられるモデルパラメータ動的データ配布モジュールと、を備える。
前記ヒープ領域から前記出力データを抽出するためのデータ抽出モジュールと、
前記出力データを出力するためのデータ出力モジュールとを備える。
前記汎用機械学習モデルを取得する。
前記汎用機械学習モデルの格納オフセット量を計算する。
前記汎用機械学習モデルおよび前記汎用機械学習モデルの格納オフセット量に従って、前記モデルディレクトリを生成する。
前記汎用機械学習モデルと前記モデルディレクトリとに従って前記汎用機械学習モデルファイルを生成する。
前記汎用機械学習モデルのファイルヘッダおよびファイルテールを取得する。
前記ファイルヘッダと、前記モデルディレクトと、前記汎用機械学習モデルと、前記ファイルテールとに従って前記汎用機械学習モデルファイルを生成する。
各前記汎用機械学習モデルが占めた記憶スペースのサイズと、前記汎用機械学習モデルの数とを取得する。
前記汎用機械学習モデルの保存順序を取得する。
各前記汎用機械学習モデルが占めた記憶スペースのサイズと、前記汎用機械学習モデルの数と、前記汎用機械学習モデルの保存順序とに従って、各前記汎用機械学習モデルの格納オフセット量を毎に計算する。
前記汎用機械学習モデルと前記モデルディレクトリとに従って前記汎用機械学習モデルファイルを生成するステップは以下を含む。
前記汎用機械学習モデルファイルの識別コードを作成する。
前記識別コードと、前記汎用機械学習モデルと、前記モデルディレクトリとに従って前記汎用機械学習モデルファイルを生成する。
前記汎用機械学習モデルと前記モデルディレクトリとに従って前記汎用機械学習モデルファイルを生成するステップは以下を含む。
汎用機械学習モデルファイルのチェックディジットおよび/または誤り訂正符号を作成する。
汎用機械学習モデルファイルのチェックディジットおよび/または誤り訂正符号と、前記汎用機械学習モデルと、前記モデルディレクトリとに従って前記汎用機械学習モデルファイルを生成する。
汎用機械学習モデルファイルの誤り訂正符号を作成する。
汎用機械学習モデルファイルの誤り訂正符号と、前記汎用機械学習モデルと、前記モデルディレクトリとに従って汎用機械学習モデルファイルを生成する。
前記汎用機械学習モデルファイルが占めた記憶スペースのサイズを計算する。
前記汎用機械学習モデルと、前記汎用機械学習モデルファイルとが占めた記憶スペースのサイズと、前記モデルディレクトリとに従って汎用機械学習モデルファイルを生成する。
機械学習タスクのタスクパラメータを獲得する。
前記タスクパラメータに対して分類処理を行い、タスク命令およびモデルパラメータを生成する。
前記タスク命令およびモデルパラメータをデータタイプに従って収集されて、スタックデータおよびヒープデータを生成する。
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを生成する。
前記汎用機械学習モデルの格納オフセット量を計算する。
前記汎用機械学習モデルおよび前記汎用機械学習モデルの格納オフセット量に従って、モデルディレクトリを生成する。
前記汎用機械学習モデルと前記モデルディレクトリとに従って汎用機械学習モデルファイルを生成する。
モデルフィラーと、ディレクトリジェネレータと、ファイルジェネレータとを備える。前記モデルフィラーは、前記ディレクトリジェネレータと接続し、前記ファイルジェネレータは、それぞれ前記モデルフィラーと、前記ディレクトリジェネレータと接続する。
前記モデルフィラーは、前記汎用機械学習モデルを取得するために用いられる。
前記ディレクトリジェネレータは、前記汎用機械学習モデルの格納オフセット量を計算するために用いられ、また、
前記汎用機械学習モデルおよび前記汎用機械学習モデルの格納オフセット量に従って、モデルディレクトリを生成する。
前記ファイルジェネレータは、前記汎用機械学習モデルと前記モデルディレクトリとに従って前記汎用機械学習モデルファイルを生成する。
機械学習タスクのタスクパラメータを取得するために用いられる外部インターフェースモジュールと、
前記タスクパラメータに対し分類処理を行い、タスク命令およびモデルパラメータを生成するために用いられる分類処理モジュールと、
データタイプに従って前記タスク命令およびモデルパラメータを収集して、スタックデータおよびヒープデータが生成するために用いられるパラメータ収集モジュールと、
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを生成するために用いられるモデル生成モジュールと、
前記汎用機械学習モデルの格納オフセット量を計算するために用いられる格納オフセット量計算モジュールと、
前記汎用機械学習モデルおよび前記汎用機械学習モデルの格納オフセット量に従って、前記モデルディレクトリを生成するモデルディレクトリ生成モジュールと、
前記汎用機械学習モデルと前記モデルディレクトリとに従って前記汎用機械学習モデルファイルを生成するために用いられるファイル生成モジュールとを備える。
汎用機械学習モデルを取得する。
前記汎用機械学習モデルに対してストレージ最適化処理を実行し、前記セカンダリモデルを生成する。
前記セカンダリモデルの格納オフセット量を計算する。
前記セカンダリモデルおよび前記セカンダリモデルの格納オフセット量に従って、モデルディレクトリを生成する。
前記セカンダリモデルと、前記セカンダリモデルディレクトリとに従って機械学習セカンダリモデルファイルを生成する。
前記機械学習セカンダリモデルファイルのファイルヘッダおよびファイルテールを取得する。
前記ファイルヘッダと、前記セカンダリモデルディレクトと、前記汎用機械学習モデルと、前記ファイルテールとに従って前記機械学習セカンダリモデルファイルを生成する。
各前記汎用機械学習モデルが占めた記憶スペースのサイズと、前記セカンダリモデルの数とを取得する。
前記セカンダリモデルの保存順序を取得する。
各前記セカンダリモデルが占めた記憶スペースのサイズと、前記セカンダリモデルの数と、前記セカンダリモデルの保存順序とに従って、各セカンダリモデルの格納オフセット量を毎に計算する。
機械学習セカンダリモデルファイルの識別コードを作成する。
前記モデルファイル識別コードと、前記セカンダリモデルと、前記セカンダリモデルディレクトリとに従って機械学習セカンダリモデルファイルを生成する。
前記セカンダリモデルファイルのチェックディジットおよび/または誤り訂正符号を作成する。前記機械学習セカンダリモデルファイルのチェックディジットおよび/または誤り訂正符号と、前記セカンダリモデルと、前記セカンダリディレクトリとに従って汎用機械学習セカンダリファイルを生成する。
機械学習タスクのタスクパラメータを獲得する。
前記タスクパラメータを分類して、タスク命令およびモデルパラメータを生成する。
前記タスク命令およびモデルパラメータをデータタイプに従って収集されて、スタックデータおよびヒープデータを生成する。
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを生成する。
前記汎用機械学習モデルに対してストレージ最適化処理を実行し、前記セカンダリモデルを生成する。前記セカンダリモデルの格納オフセット量を計算する。
前記セカンダリモデルおよび前記セカンダリモデルの格納オフセット量に従って、モデルディレクトリを生成する。
前記セカンダリモデルと、前記モデルディレクトリとに従って機械学習セカンダリモデルファイルを生成する。
セカンダリモデルフィラーと、モデルストレージ最適化器と、ディレクトリジェネレータと、ファイルジェネレータとを備える。前記モデルフィラーは、前記ディレクトリジェネレータと接続し、前記ファイルジェネレータは、それぞれ前記モデルフィラーと、前記ディレクトリジェネレータと接続し、前記モデルストレージ最適化器は、前記モデルフィラーと接続する。
前記セカンダリモデルフィラーは、汎用機械学習モデルを取得するために用いられる。
前記モデルストレージ最適化器は、前記汎用機械学習モデルに対してストレージ最適化処理を実行し、セカンダリモデルを生成する。
前記ディレクトリジェネレータは、前記汎用機械学習モデルの格納オフセット量を計算するために用いられ、また、前記セカンダリモデルおよび前記セカンダリモデルの格納オフセット量に従って、モデルディレクトリを生成する。
前記ファイルジェネレータは、前記セカンダリモデルと、前記セカンダリモデルディレクトリとに従って機械学習セカンダリモデルファイルを生成する。
前記方法は以下を含む。
汎用機械学習モデルを取得する。
前記汎用機械学習モデルファイルからセカンダリモデルディレクトリを読み込む。
前記セカンダリモデルディレクトリに従ってターゲットのセカンダリモデルを読み込む。
前記ターゲットのセカンダリモデルディレクトリに対して復元を実行してターゲットの汎用機械学習モデルを取得する。
前記汎用機械学習モデルファイルの識別コードを取得する。
前記識別コードが事前設定された規則に適合するか否かを検出する。
前記識別コードが事前設定された規則に適合している場合に、前記汎用機械学習モデルファイルからセカンダリモデルディレクトリを読み込む。
前記汎用機械学習モデルファイルのチェックディジットを取得する。
前記チェックディジットが事前設定されたチェックディジットと一致するか否かを確認し、前記チェックディジットが事前設定された標準コードと一致しない場合、エラー訂正演算を実行する。
誤り訂正符号を取得する。
前記誤り訂正符号に従って前記汎用機械学習モデルファイルに対してエラー訂正を実行して、エラー訂正されたモデルファイルを取得する。
前記エラー訂正された汎用機械学習モデルファイルのチェックディジットが前記事前設定された標準コードと一致しているか否かを検証する。
前記訂正した汎用機械学習モデルファイルのチェックディジットは前記事前設定された標準コードとは一致すると、前記汎用機械学習モデルファイルからセカンダリモデルディレクトリを読み込む。
前記汎用機械学習モデルファイルにおけるターゲットのセカンダリモデルの格納オフセット量を取得する。
前記格納オフセット量に従って前記ターゲットの汎用機械学習モデルを読み込む。
前記汎用機械学習モデルにおけるハードウェアパラメータ情報を読み取る。
前記ハードウェアパラメータ情報に従ってハードウェアマッチング情報を生成する。
前記汎用機械学習モデルを分類と分解して、スタック領域データおよびヒープ領域データを取得する。
前記スタック領域データと、前記ヒープ領域データと、入力データとに基づいて計算を行い、出力データを取得する。
汎用機械学習モデルファイルの解析装置であり、汎用機械学習モデルファイルは汎用機械学習モデルと、セカンダリモデルディレクトリを含む。
前記ファイル取得器は、汎用機械学習モデルファイルを取得するために用いられる。
前記モデル配信器は、前記汎用機械学習モデルファイルにおけるセカンダリモデルディレクトリを読み取り、前記セカンダリモデルディレクトリに従ってターゲット二次モデルを読み取り、また、前記ターゲットのセカンダリモデルを復元し、ターゲットの汎用機械学習モデルを取得するために用いられる。
前記ディレクトリ解析器は、前記汎用機械学習モデルファイルからモデルディレクトリを読み込むために用いられる。
前記モデルリーダは、前記モデルディレクトリに従ってターゲットの汎用機械学習モデルを読み込むために用いられる。メモリおよびプロセッサを備えるコンピュータ設備であり、前記メモリは、コンピュータプログラムを格納し、前記プロセッサはコンピュータプログラムを実行する際に上記実施例のいずれかによって提供される方法のステップを実現する。
汎用機械学習モデルを取得する。
前記汎用機械学習モデルファイルからモデルディレクトリを読み込む。
前記モデルディレクトリに従ってターゲットの汎用機械学習モデルを読み込む。
前記汎用機械学習モデルファイルのファイル識別コードを取得する。
前記ファイル識別コードが事前設定された規則に適合するか否かを検出する。
前記ファイル識別コードが事前設定された規則に適合している場合に、前記汎用機械学習モデルファイルからモデルディレクトリを読み込む。
前記汎用機械学習モデルファイルのチェックディジットを取得する。
前記チェックディジットが事前設定されたチェックディジットと一致するか否かを確認し、前記チェックディジットが事前設定された標準コードと一致しない場合、エラー訂正演算を実行する。
前記チェックディジットが事前設定されたチェックディジットと一致するか否かを確認し、前記チェックディジットが事前設定された標準コードと一致しない場合、エラー訂正演算を実行する前記ステップは以下を含む。
誤り訂正符号が取得される。
前記誤り訂正符号に従って前記汎用機械学習モデルファイルに対してエラー訂正を実行して、エラー訂正されたモデルファイルを取得する。
前記エラー訂正されたモデルファイルのチェックディジットが前記事前設定された標準コードと一致しているか否かを検証する;
前記訂正した汎用機械学習モデルファイルのチェックディジットは前記事前設定された標準コードとは一致すると、前記汎用機械学習モデルファイルからモデルディレクトリを読み込む。
前記汎用機械学習モデルファイルにおけるターゲットの汎用機械学習モデルの格納オフセット量を取得する。
前記格納オフセット量に従って前記ターゲットの汎用機械学習モデルを読み込む。
汎用機械学習モデルを取得する。
前記汎用機械学習モデルファイルからセカンダリモデルディレクトリを読み込む。
前記セカンダリモデルディレクトリに従ってターゲットのセカンダリモデルを読み込む。
前記ターゲットのセカンダリモデルディレクトリに対して復元を実行してターゲットの汎用機械学習モデルを取得する。
前記汎用機械学習モデルにおけるハードウェアパラメータ情報を読み取る。
前記ハードウェアパラメータ情報に従ってハードウェアマッチング情報を生成する。
前記汎用機械学習モデルを分類と分解して、スタック領域データおよびヒープ領域データを取得する。
前記スタック領域データと、前記ヒープ領域データと、入力データとに基づいて計算を行い、出力データを取得する。
ファイル取得器と、ディレクトリ解析器と、モデルリーダとを備える。前記ディレクトリ解析器は、それぞれ前記ファイル取得器と、前記モデルリーダとに接続されている。
前記ファイル取得器は、汎用機械学習モデルファイルを取得するために用いられる。
前記ディレクトリ解析器は、前記汎用機械学習モデルファイルからモデルディレクトリを読み込むために用いられる。
前記モデルリーダは、前記モデルディレクトリに従ってターゲットの汎用機械学習モデルを読み込むために用いられる。
ユーザが設計した機械学習アルゴリズム(例えば、ニューラルネットワーク構造)を受信する。
各サブタスクのパラメータを解析し、コンパイル層に送信し、マシン命令と関連する必要な要素を生成する。
ランタイム層に送信されて計算を実行し、最終的にユーザが必要とする機械学習タスクを完了する。
前記タスクパラメータに対して分類処理を行い、タスク命令およびモデルパラメータを取得するステップは以下を含む。
汎用機械学習モデルを取得するためのモデル取得モジュール15100と、
前記汎用機械学習モデルを分類と分解して、スタックデータおよびヒープデータを取得するためのモデル分解モジュール15200と、
スタック領域データと、ヒープ領域データと、入力データと取得して計算を行い、出力データを取得するための結果出力モジュール15400とを備える装置である。
前記ヒープ領域から前記出力データを抽出するためのデータ抽出モジュール15410と、
前記出力データを出力するためのデータ出力モジュール15420とを備える。汎用機械学習モデル実行装置の具体的な定義については、前記汎用機械学習モデル実行方法の定義を参照することができ、ここで説明は繰り返さない。前記汎用機械学習モデル実行装置の各モジュールは、ソフトウェア、ハードウェア、およびそれらの組み合わせによって全体的または部分的に実現されてもよい。前記各モジュールは、ハードウェア形式でコンピュータ装置のプロセッサに組み込まれるか、コンピュータ装置のプロセッサから独立していてもよいし、プロセッサに呼び出されやすいためにソフトウェア形式でコンピュータ装置のメモリに格納されてもよい。
ステップS16100では、入力画像に対して入力前処理操作を実行して、処理済みの入力画像を取得する。
汎用機械学習モデルを取得するステップS2501と、前記汎用機械学習モデルに対してストレージ最適化処理を実行して、セカンダリモデルを生成するステップS2502と、前記セカンダリモデルの格納オフセット量を計算するステップS2503と、前記セカンダリモデルと前記セカンダリモデルの格納オフセット量に従ってセカンダリモデルディレクトリを生成するステップS2504と、前記セカンダリモデルと前記セカンダリモデルディレクトリに従って汎用機械学習モデルファイルを生成するステップS2505とを含む。
機械学習セカンダリモデルファイルの識別コードを作成する。
前記モデルファイル識別コードと、前記セカンダリモデルと、前記セカンダリモデルディレクトリとに従って機械学習セカンダリモデルファイルを生成する。
機械学習タスクのタスクパラメータを獲得する。
前記タスクパラメータを分類して、タスク命令およびモデルパラメータを生成する。
前記タスク命令およびモデルパラメータをデータタイプに従って収集されて、スタックデータおよびヒープデータを生成する。
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを生成する。
前記汎用機械学習モデルに対してストレージ最適化処理を実行し、前記セカンダリモデルを生成する。前記セカンダリモデルの格納オフセット量を計算する。
前記セカンダリモデルおよび前記セカンダリモデルの格納オフセット量に従って、モデルディレクトリを生成する。
前記セカンダリモデルと、前記モデルディレクトリとに従って機械学習セカンダリモデルファイルを生成する。
ステップS2601では、機械学習タスクのタスクパラメータを獲得する。具体的には、タスクパラメータは、汎用機械学習モデルの生成に必要なパラメータであり、それは入力データと出力データ以外のパラメータを含む。具体的には、タスクパラメータは外部プログラムの入力またはユーザの入力からのものである。タスクパラメータがユーザの入力からのものである場合に、ユーザの入力データをフォーマットしてから、タスクパラメータを生成することが理解されよう。
前記ディレクトリジェネレータ2702は、前記汎用機械学習モデルの格納オフセット量を計算するために用いられ、また、
前記汎用機械学習モデルおよび前記汎用機械学習モデルの格納オフセット量に従って、モデルディレクトリを生成する。
前記ファイルジェネレータ2703は、前記汎用機械学習モデルと前記モデルディレクトリとに従って汎用機械学習モデルファイルを生成する。
外部インターフェースモジュール2801は、機械学習タスクのタスクパラメータを取得するために用いられる。
分類処理モジュール2802は、前記タスクパラメータを分類処理して、タスク命令およびモデルパラメータを生成するために用いられる。
パラメータ収集モジュール2803は、データタイプに従って前記タスク命令およびモデルパラメータを収集して、スタックデータおよびヒープデータが生成するために用いられる。
モデル生成モジュール2804は、前記スタックデータとヒープデータを統合して、汎用機械学習モデルを生成するために用いられる。
格納オフセット量計算モジュール2805は、前記汎用機械学習モデルの格納オフセット量を計算するために用いられる。
モデルディレクトリ生成モジュール2806は、前記汎用機械学習モデルおよび前記汎用機械学習モデルの格納オフセット量に従って、モデルディレクトリを生成するために用いられる。
ファイル生成モジュール2807は、前記汎用機械学習モデルと前記モデルディレクトリとに従って汎用機械学習モデルファイルを生成するために用いられる。
ステップS2701では、汎用機械学習モデルを取得する。汎用機械学習モデルファイルは、ステップS2402〜ステップS2408によって生成されたモデルファイルを含む。さらに、汎用機械学習ファイルにおける汎用機械学習モデルは、ステップS2201〜ステップS2204によって生成されたモデルファイルを含む。
ステップS2702では、前記汎用機械学習モデルファイルからモデルディレクトリを読み込む。具体的には、モデルディレクトリには、上述のステップS2406により生成されたモデルディレクトリが含まれる。
ステップS2703では、前記モデルディレクトリに従ってターゲットの汎用機械学習モデルを読み込む。前記ターゲットの汎用機械学習モデルとは、汎用機械学習モデルファイルにおける取り出される汎用機械学習モデルを指す。ターゲットの汎用機械学習モデルは、ユーザの操作命令に従って決定されてもよいし、タスク実行の必要に従って決定されてもよい。
その装置は、ファイル取得器2901と、ディレクトリ解析器2902と、モデルリーダ2903とを備える。前記ディレクトリ解析器2902は、それぞれ前記ファイル取得器2901と、前記モデルリーダ2903とに接続されている。
前記ファイル取得器2901は、汎用機械学習モデルファイルを取得するために用いられる。
前記ディレクトリ解析器2902は、前記汎用機械学習モデルファイルからモデルディレクトリを読み込むために用いられる。
前記モデルリーダ2903は、前記モデルディレクトリに従ってターゲットの汎用機械学習モデルを読み込むために用いられる。
汎用機械学習モデルを取得するためのモデル取得器29101と、
前記汎用機械学習モデルを分類と分解して、スタック領域データおよびヒープ領域データを取得するためのモデル分解器29102と、
前記スタック領域データと、前記ヒープ領域データと、入力データと取得して計算を行い、出力データを取得するための結果出力器29103とを備える。
Claims (21)
- 汎用機械学習モデルの生成方法であって、
機械学習タスクのタスクパラメータを獲得することと、
前記タスクパラメータに対し分類処理を行い、タスク命令およびモデルパラメータを取得することと、
前記タスク命令およびモデルパラメータをデータタイプに従って収集し、スタックデータおよびヒープデータを取得することと、
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを取得することとを含む方法。 - 請求項1に記載の方法であって、前記タスクパラメータは、アルゴリズム制御パラメータおよび計算パラメータを含み、
前記タスクパラメータに対し分類処理を行い、タスク命令およびモデルパラメータを取得する前記ステップは、
前記アルゴリズム制御パラメータをコンパイルしてタスク命令を取得することと、
前記計算パラメータに対して分類処理を行い、モデルパラメータを取得することを含むことを特徴とする方法。 - 請求項2に記載の方法であって、前記計算パラメータを分類処理して、モデルパラメータを取得する前記ステップは、
前記計算パラメータを前処理して、前処理モデルパラメータを取得することと、
前記計算パラメータに従ってハードウェアパラメータを取得することと、
前記計算パラメータからデータ属性パラメータを抽出することとを含むことを特徴とする方法。 - 請求項3に記載の方法であって、前記タスク命令およびモデルパラメータをデータタイプに従って収集して、スタックデータおよびヒープデータを取得する前記ステップは、
前記タスク命令に対して分類処理を行い、タスク命令ヒープデータを取得することと、
前記データタイプに従ってモデルパラメータに対して分類処理を行い、モデルパラメータスタックデータおよびモデルパラメータヒープデータを取得することと、
前記モデルパラメータスタックデータを収集して、前記スタックデータを取得することと、
前記モデルパラメータヒープデータおよびタスク命令ヒープデータに対して収集し、前記ヒープデータを取得することとを含むことを特徴とする方法。 - 請求項4に記載の方法であって、前記データタイプに従ってモデルパラメータに対して分類処理を行い、モデルパラメータスタックデータおよびモデルパラメータヒープデータを取得する前記ステップは、
共有属性に従ってモデルパラメータを分類し、共有可能なモデルパラメータおよび共有不可なモデルパラメータを取得することと、
共有可能なモデルパラメータを収集して、モデルパラメータヒープデータを取得することと、
前記共有不可なモデルパラメータを収集して、モデルパラメータスタックデータを取得することとを含むことを特徴とする方法。 - 請求項4に記載の方法であって、前記モデルパラメータヒープデータは、モデルパラメータ静的データおよびモデルパラメータ動的データを含み、
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを取得する前記ステップは、
前記タスク命令ヒープデータと前記モデルパラメータ静的データをパッケージ化し統合し、連続した静的データブロックを取得することと、
前記モデルパラメータ動的データをパッケージ化し統合して、連続した動的データブロックを取得することと、
前記モデルパラメータスタックデータをパッケージ化し統合し、スタックデータブロックを取得することと、
前記連続した静的データブロックと、前記連続した動的データブロックと、スタックデータブロックとを合併してから、汎用機械学習モデルを取得することとを含むことを特徴とする方法。 - 請求項6に記載の方法であって、前記連続した静的データブロックと、前記連続した動的データブロックと、スタックデータブロックとを合併してから、汎用機械学習モデルを取得する前記ステップは、
前記タスク命令に従って、静的データレイアウト情報と、動的データレイアウト情報と、スタックデータレイアウト情報とを取得することと、
前記静的データレイアウト情報に従って前記タスク命令ヒープデータと前記モデルパラメータ静的データをパッケージ化し統合し、前記連続した静的データブロックを取得することと、
前記動的データレイアウト情報に従って前記モデルパラメータ動的データをパッケージ化し統合して、連続した動的データブロックを取得することと、
前記スタックデータレイアウト情報に従って前記モデルパラメータスタックデータをパッケージ化し統合し、前記スタックデータブロックを取得することと、
前記連続した静的データブロックと、前記連続した動的データブロックと、スタックデータブロックとを統合することとを含むことを特徴とする。 - 請求項7に記載の方法であって、前記計算パラメータから、データ属性パラメータを抽出する前記ステップは、
計算パラメータの入力データ属性、出力データ属性、および中間結果一時スペース属性を取得することと、
前記入力データの属性から前記入力データのデータ量を抽出し、前記入力データの記憶スペースを割り当てることと、
前記出力データの属性から前記出力データのデータ量を抽出し、前記出力データの記憶スペースを割り当てることと、
前記中間結果一時スペース属性から中間結果一時スペースのデータ量を抽出し、前記中間結果一時記憶スペースを割り当てることと、
前記入力データの記憶スペースと出力データの記憶スペースをヒープデータとして格納し、前記中間結果一時記憶スペースをスタックデータとして格納することとを含むことを特徴とする方法。 - 請求項8に記載の方法であって、前記スタックデータレイアウト情報に従って前記モデルパラメータスタックデータをパッケージ化し統合し、前記スタックデータブロックを取得する前記ステップは、
スタックデータレイアウト情報に従って前共有不可なモデルパラメータと前記中間結果一時記憶スペースを統合して、前記スタックデータブロックを取得することを含むことを特徴とする方法。 - 請求項9に記載の方法であって、前記計算パラメータに従って、ハードウェアパラメータを取得する前記ステップは、
ハードウェアプラットフォーム情報およびハードウェア配置パラメータを取得し、ヒープデータとして格納することを含むことを特徴とする方法。 - 請求項10に記載の方法であって、前記静的データレイアウト情報に従って前記タスク命令ヒープデータと前記モデルパラメータ静的データをパッケージ化し統合し、前記連続した静的データブロックを取得する前記ステップは、
前記静的データレイアウト情報に従って、前記タスク命令ヒープデータと、モデルパラメータヒープデータと、ハードウェアプラットフォーム情報と、ハードウェア配置パラメータとを統合し、前記連続した静的データブロックを取得することを含むことを特徴とする方法。 - 請求項8に記載の方法であって、前記動的データレイアウト情報に従って前記モデルパラメータ動的データをパッケージ化し統合し、連続した的データブロックを取得する前記ステップは、
前記動的データレイアウト情報に従って、前記入力データ記憶スペースおよび前記出力データ記憶スペースは統合し、前記連続した動的データブロックを取得することを含むことを特徴とする方法。 - 汎用機械学習モデルの生成装置であって、
機械学習タスクのタスクパラメータを取得するために用いられる外部インターフェースモジュールと、
前記タスクパラメータに対し分類処理を行い、タスク命令およびモデルパラメータを生成するために用いられる分類処理モジュールと、
データタイプに従って前記タスク命令およびモデルパラメータを収集して、スタックデータおよびヒープデータが生成するために用いられるパラメータ収集モジュールと、
前記スタックデータとヒープデータを統合して、汎用機械学習モデルを生成するために用いられるモデル生成モジュールとを備える装置。 - 請求項13に記載の装置であって、前記タスクパラメータは、アルゴリズム制御パラメータおよび計算パラメータを含み、
前記分類処理モジュールは、
前記アルゴリズム制御パラメータをコンパイルしてタスク命令を取得するために用いられるタスク命令生成モジュールと、
前記計算パラメータに対し分類処理を行い、モデルパラメータを取得するために用いられるモデルパラメータ生成モジュールとを備えることを特徴とする装置。 - 請求項14に記載の装置であって、前記モデルパラメータ生成モジュールは、
共有可能なモデルパラメータを収集して、モデルパラメータスタックデータを取得するために用いられるモデルパラメータスタックデータ生成モジュールと、
前記共有不可なモデルパラメータを収集して、モデルパラメータヒープデータを取得するために用いられるモデルパラメータヒープデータ生成モジュールとを備えることを特徴とする装置。 - 請求項15に記載の装置であって、前記モデルパラメータヒープデータ生成モジュールは、
静的な前記モデルパラメータヒープデータを収集して、モデルパラメータ静的データを取得するために用いられるモデルパラメータ静的データ生成モジュールと、
動的な前記モデルパラメータヒープデータを収集して、モデルパラメータ動的データを取得するために用いられるモデルパラメータ動的データ生成モジュールとを備えることを特徴とする装置。 - 請求項15に記載の装置であって、前記モデルパラメータ生成モジュールは、
前記計算パラメータを前処理して、前処理モデルパラメータを取得するために用いられる前処理モジュールと、
前記計算パラメータに従ってハードウェアパラメータを取得するために用いられるハードウェアパラメータ生成モジュールと、
前記計算パラメータからデータ属性パラメータを抽出するために用いられる属性抽出モジュールとをさらに備えることを特徴とする装置。 - 請求項17に記載の装置であって、前記タスク命令は、タスク命令ヒープデータを含み、前記パラメータ収集器は、
前記モデルパラメータスタックデータをパッケージ化し統合し、スタックデータブロックを取得するために用いられるスタックデータ収集器と、
前記モデルパラメータ動的データをパッケージ化し統合して、連続した動的データブロックを取得することために用いられるモデルパラメータ動的データ収集器と、
前記タスク命令ヒープデータと前記モデルパラメータ静的データをパッケージ化し統合し、連続した静的データブロックを取得するために用いられるモデルパラメータ静的データ収集器とを備えることを特徴とする装置。 - 請求項18に記載の装置であって、前記モデル生成モジュールは、前記連続した静的データブロックと、前記連続した動的データブロックと、スタックデータブロックとを合併してから、汎用機械学習モデルを取得することを特徴とする装置。
- コンピュータプログラムを格納するメモリとプロセッサとを備えるコンピュータ設備であって、前記プロセッサは前記コンピュータプログラムを実行する際に請求項1〜12のいずれの一項に記載の方法のステップを実現することを特徴とするコンピュータ設備。
- コンピュータプログラムを格納するコンピュータ可読記憶媒体であって、前記コンピュータプログラムをプロセッサによって実行する際に、請求項1〜12のいずれの一項記載の方法のステップを実現する実現することを特徴とするコンピュータ可読記憶媒体。
Applications Claiming Priority (13)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810588623.3 | 2018-06-08 | ||
CN201810588623.3A CN110647996B (zh) | 2018-06-08 | 2018-06-08 | 通用机器学习模型的执行方法、装置和存储介质 |
CN201810589390.9 | 2018-06-08 | ||
CN201810589390.9A CN110580527B (zh) | 2018-06-08 | 2018-06-08 | 通用机器学习模型的生成方法、装置和存储介质 |
CN201811457719.2A CN111260018B (zh) | 2018-11-30 | 2018-11-30 | 机器学习二级模型文件生成方法、装置、存储介质 |
CN201811457719.2 | 2018-11-30 | ||
CN201811459853.6 | 2018-11-30 | ||
CN201811456246.4 | 2018-11-30 | ||
CN201811459853.6A CN111260071B (zh) | 2018-11-30 | 2018-11-30 | 通用机器学习模型文件解析方法、装置、存储介质 |
CN201811459679.5 | 2018-11-30 | ||
CN201811459679.5A CN111338630B (zh) | 2018-11-30 | 2018-11-30 | 通用机器学习模型文件的生成方法、装置、存储介质 |
CN201811456246.4A CN111258584B (zh) | 2018-11-30 | 2018-11-30 | 通用机器学习二级模型文件解析方法、装置、存储介质 |
PCT/CN2019/085853 WO2019233231A1 (zh) | 2018-06-08 | 2019-05-07 | 通用机器学习模型、模型文件的生成和解析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021526670A true JP2021526670A (ja) | 2021-10-07 |
JP7386706B2 JP7386706B2 (ja) | 2023-11-27 |
Family
ID=68770069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019554861A Active JP7386706B2 (ja) | 2018-06-08 | 2019-05-07 | 汎用機械学習モデル、モデルファイルの生成および解析方法 |
Country Status (5)
Country | Link |
---|---|
US (7) | US11334329B2 (ja) |
EP (1) | EP3751477A4 (ja) |
JP (1) | JP7386706B2 (ja) |
KR (1) | KR20210017985A (ja) |
WO (1) | WO2019233231A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110414187B (zh) * | 2019-07-03 | 2021-09-17 | 北京百度网讯科技有限公司 | 模型安全交付自动化的系统及其方法 |
US11348035B2 (en) * | 2020-10-27 | 2022-05-31 | Paypal, Inc. | Shared prediction engine for machine learning model deployment |
KR102485528B1 (ko) * | 2021-11-02 | 2023-01-06 | 주식회사 에이젠글로벌 | 금융 서비스를 위한 금융 모델 및 금융 데이터 가치 평가 방법 및 이러한 방법을 수행하는 장치 |
US11675571B1 (en) * | 2021-12-28 | 2023-06-13 | Nb Ventures, Inc. | Restructuring enterprise application |
CN116247248B (zh) * | 2023-05-10 | 2023-07-25 | 北京新研创能科技有限公司 | 基于排放物分析的氢燃料电池堆健康状态诊断方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01248268A (ja) * | 1988-03-30 | 1989-10-03 | Nippon Telegr & Teleph Corp <Ntt> | 神経回路網学習装置 |
JP2005227794A (ja) * | 2002-11-21 | 2005-08-25 | Matsushita Electric Ind Co Ltd | 標準モデル作成装置及び標準モデル作成方法 |
JP2011204105A (ja) * | 2010-03-26 | 2011-10-13 | Kddi R & D Laboratories Inc | スクリプト起動プログラム、スクリプト起動プログラムの生成プログラム、およびプログラムセット |
JP2013190879A (ja) * | 2012-03-12 | 2013-09-26 | Nippon Telegr & Teleph Corp <Ntt> | コンピュータシステム及びシステム制御方法 |
JP2016517550A (ja) * | 2013-02-14 | 2016-06-16 | アダプティブ スペクトラム アンド シグナル アラインメント インコーポレイテッド | ブロードバンドネットワークのチャーン予測 |
US20180088996A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Systems and Methods of Memory Allocation for Neural Networks |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0676691A3 (en) | 1994-04-06 | 1996-12-11 | Hewlett Packard Co | Device for saving and restoring registers in a digital computer. |
US6381738B1 (en) * | 1999-07-16 | 2002-04-30 | International Business Machines Corporation | Method for optimizing creation and destruction of objects in computer programs |
US7024668B2 (en) | 2000-05-15 | 2006-04-04 | Matsushita Electric Industrial Co., Ltd. | Application execution apparatus and method |
US20030055881A1 (en) | 2001-09-14 | 2003-03-20 | Ngo Kim Cuc | Method and apparatus for transmitting data over a network |
US7558935B1 (en) * | 2004-05-04 | 2009-07-07 | Sun Microsystems, Inc. | Method and system for optimizing memory allocation |
KR101164194B1 (ko) | 2008-12-11 | 2012-07-10 | 한국전자통신연구원 | 멀티 쓰레드 기반의 정적 스택 할당 방법 |
US20100185568A1 (en) * | 2009-01-19 | 2010-07-22 | Kibboko, Inc. | Method and System for Document Classification |
US8620461B2 (en) * | 2009-09-24 | 2013-12-31 | Honeywell International, Inc. | Method and system for updating tuning parameters of a controller |
JP5381624B2 (ja) | 2009-11-04 | 2014-01-08 | 富士通株式会社 | メモリ管理機能を有するプログラム及び装置 |
CN101782976B (zh) | 2010-01-15 | 2013-04-10 | 南京邮电大学 | 一种云计算环境下机器学习自动选择方法 |
CN101833438A (zh) | 2010-04-19 | 2010-09-15 | 浙江大学 | 一种基于多重并行的数据通用处理方法 |
US8990502B2 (en) * | 2010-11-23 | 2015-03-24 | International Business Machines Corporation | Write cache structure in a storage system |
CN102289496B (zh) | 2011-08-22 | 2013-03-06 | 北京航空航天大学 | 一种基于贝叶斯网络的无线认知网络知识库构建方法 |
US8566559B2 (en) | 2011-10-10 | 2013-10-22 | Microsoft Corporation | Runtime type identification of native heap allocations |
CN102609714B (zh) | 2011-12-31 | 2017-07-07 | 哈尔滨理工大学 | 基于信息增益和在线支持向量机的新型分类器及分类方法 |
US9324033B2 (en) | 2012-09-13 | 2016-04-26 | Nokia Technologies Oy | Method and apparatus for providing standard data processing model through machine learning |
US9086950B2 (en) | 2012-09-26 | 2015-07-21 | Avaya Inc. | Method for heap management |
US9069656B2 (en) | 2012-09-28 | 2015-06-30 | Apple Inc. | Obfuscating function resources while reducing stack consumption |
US9286574B2 (en) | 2013-11-04 | 2016-03-15 | Google Inc. | Systems and methods for layered training in machine-learning architectures |
US20150242760A1 (en) | 2014-02-21 | 2015-08-27 | Microsoft Corporation | Personalized Machine Learning System |
US10225280B2 (en) * | 2014-02-24 | 2019-03-05 | Cyphort Inc. | System and method for verifying and detecting malware |
US10289962B2 (en) | 2014-06-06 | 2019-05-14 | Google Llc | Training distilled machine learning models |
US9460002B1 (en) * | 2014-06-30 | 2016-10-04 | Emc Corporation | Memory allocation |
US9875736B2 (en) | 2015-02-19 | 2018-01-23 | Microsoft Technology Licensing, Llc | Pre-training and/or transfer learning for sequence taggers |
US9710238B2 (en) | 2015-03-26 | 2017-07-18 | IfWizard Corporation | Automatically optimizing analytics database server |
US11221990B2 (en) | 2015-04-03 | 2022-01-11 | The Mitre Corporation | Ultra-high compression of images based on deep learning |
CN106067028A (zh) * | 2015-04-19 | 2016-11-02 | 北京典赞科技有限公司 | 基于gpu的自动化机器学习的建模方法 |
CN106156810B (zh) * | 2015-04-26 | 2019-12-03 | 阿里巴巴集团控股有限公司 | 通用机器学习算法模型训练方法、系统和计算节点 |
CN104850592B (zh) | 2015-04-27 | 2018-09-18 | 小米科技有限责任公司 | 生成模型文件的方法和装置 |
US9912759B2 (en) | 2015-06-24 | 2018-03-06 | International Business Machines Corporation | Dynamically generating solution stacks |
US10540588B2 (en) | 2015-06-29 | 2020-01-21 | Microsoft Technology Licensing, Llc | Deep neural network processing on hardware accelerators with stacked memory |
CN105824713B (zh) | 2016-03-10 | 2019-07-16 | 中国银行股份有限公司 | 一种数据校验方法及装置 |
CN105912500B (zh) * | 2016-03-30 | 2017-11-14 | 百度在线网络技术(北京)有限公司 | 机器学习模型生成方法和装置 |
CN106371765B (zh) | 2016-08-29 | 2020-09-18 | 成都科鸿达科技有限公司 | 一种高效大规模系统的ltl模型检测去内存抖动的方法 |
CN106383842A (zh) | 2016-08-30 | 2017-02-08 | 广联达科技股份有限公司 | 模型文件的解析方法、解析装置和服务器 |
US11681943B2 (en) * | 2016-09-27 | 2023-06-20 | Clarifai, Inc. | Artificial intelligence development via user-selectable/connectable model representations |
WO2018078590A2 (en) | 2016-10-27 | 2018-05-03 | Voodoo Manufacturing, Inc. | Automated manufacturing system |
WO2018088794A2 (ko) * | 2016-11-08 | 2018-05-17 | 삼성전자 주식회사 | 디바이스가 이미지를 보정하는 방법 및 그 디바이스 |
US20180165779A1 (en) * | 2016-11-15 | 2018-06-14 | Scriyb LLC | System and method for event management in an online virtual learning environment with integrated real-learning augmentation and cyber workforce optimization |
US10796217B2 (en) * | 2016-11-30 | 2020-10-06 | Microsoft Technology Licensing, Llc | Systems and methods for performing automated interviews |
CN106779087B (zh) * | 2016-11-30 | 2019-02-22 | 福建亿榕信息技术有限公司 | 一种通用机器学习数据分析平台 |
CN106682280A (zh) | 2016-12-08 | 2017-05-17 | 润泽安泰(北京)科技有限公司 | 一种优化算法的通用建模方法及系统 |
CN108229686B (zh) | 2016-12-14 | 2022-07-05 | 阿里巴巴集团控股有限公司 | 模型训练、预测方法、装置、电子设备及机器学习平台 |
US10684984B2 (en) * | 2016-12-21 | 2020-06-16 | Intel Corporation | Computing devices and server systems with processing cores having different instruction set architectures |
US10885188B1 (en) * | 2016-12-30 | 2021-01-05 | Comodo Security Solutions, Inc. | Reducing false positive rate of statistical malware detection systems |
US10089467B1 (en) * | 2017-05-23 | 2018-10-02 | Malwarebytes Inc. | Static anomaly-based detection of malware files |
US10394811B2 (en) * | 2017-05-30 | 2019-08-27 | Oracle International Corporation | Tail-based top-N query evaluation |
CN107436762B (zh) | 2017-07-03 | 2021-02-23 | 北京东土军悦科技有限公司 | 一种寄存器代码文件生成方法、装置和电子设备 |
CN107563512B (zh) | 2017-08-24 | 2023-10-17 | 腾讯科技(上海)有限公司 | 一种数据处理方法、装置以及存储介质 |
CN107844634B (zh) * | 2017-09-30 | 2021-05-25 | 平安科技(深圳)有限公司 | 多元通用模型平台建模方法、电子设备及计算机可读存储介质 |
CN107844371A (zh) | 2017-10-12 | 2018-03-27 | 北京京东尚科信息技术有限公司 | 任务处理方法、系统及电子设备 |
CN107749757B (zh) | 2017-10-18 | 2020-08-14 | 广东电网有限责任公司电力科学研究院 | 一种基于堆栈式自编码和pso算法的数据压缩方法及装置 |
US10360214B2 (en) | 2017-10-19 | 2019-07-23 | Pure Storage, Inc. | Ensuring reproducibility in an artificial intelligence infrastructure |
US10963226B2 (en) * | 2017-10-25 | 2021-03-30 | Aspiring Minds Assessment Private Limited | Generating compilable code from uncompilable code |
US10275710B1 (en) * | 2017-10-31 | 2019-04-30 | KenSci Inc. | Machine learning model repository |
CN108763268B (zh) | 2018-04-04 | 2020-12-29 | 深圳市彬讯科技有限公司 | 一种三维模型的批处理方法与装置、存储介质 |
US10565229B2 (en) * | 2018-05-24 | 2020-02-18 | People.ai, Inc. | Systems and methods for matching electronic activities directly to record objects of systems of record |
EP3841517A1 (en) * | 2018-08-20 | 2021-06-30 | Yield Systems Oy | Method and system for generating annotated training data |
CN109409513B (zh) * | 2018-10-10 | 2021-03-12 | 广州市百果园信息技术有限公司 | 一种基于神经网络的任务处理方法及相关设备 |
CN109614220B (zh) * | 2018-10-26 | 2020-06-30 | 阿里巴巴集团控股有限公司 | 一种多核系统处理器和数据更新方法 |
CN111507476A (zh) * | 2019-01-31 | 2020-08-07 | 伊姆西Ip控股有限责任公司 | 部署机器学习模型的方法、设备和计算机程序产品 |
US10956698B2 (en) * | 2019-04-18 | 2021-03-23 | Paypal, Inc. | Systems and methods for using machine learning to determine an origin of a code |
US11443234B2 (en) * | 2019-09-25 | 2022-09-13 | Sap Se | Machine learning data processing pipeline |
US20210191765A1 (en) * | 2019-12-18 | 2021-06-24 | Deep Vision Inc. | Method for static scheduling of artificial neural networks for a processor |
-
2019
- 2019-05-07 JP JP2019554861A patent/JP7386706B2/ja active Active
- 2019-05-07 EP EP19815956.8A patent/EP3751477A4/en not_active Withdrawn
- 2019-05-07 US US16/975,082 patent/US11334329B2/en active Active
- 2019-05-07 WO PCT/CN2019/085853 patent/WO2019233231A1/zh unknown
- 2019-05-07 KR KR1020197029038A patent/KR20210017985A/ko unknown
-
2020
- 2020-12-22 US US17/130,469 patent/US11036480B2/en active Active
- 2020-12-22 US US17/130,370 patent/US11334330B2/en active Active
- 2020-12-22 US US17/130,393 patent/US11403080B2/en active Active
- 2020-12-22 US US17/130,300 patent/US11379199B2/en active Active
- 2020-12-22 US US17/130,348 patent/US11307836B2/en active Active
-
2022
- 2022-06-26 US US17/849,650 patent/US11726754B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01248268A (ja) * | 1988-03-30 | 1989-10-03 | Nippon Telegr & Teleph Corp <Ntt> | 神経回路網学習装置 |
JP2005227794A (ja) * | 2002-11-21 | 2005-08-25 | Matsushita Electric Ind Co Ltd | 標準モデル作成装置及び標準モデル作成方法 |
JP2011204105A (ja) * | 2010-03-26 | 2011-10-13 | Kddi R & D Laboratories Inc | スクリプト起動プログラム、スクリプト起動プログラムの生成プログラム、およびプログラムセット |
JP2013190879A (ja) * | 2012-03-12 | 2013-09-26 | Nippon Telegr & Teleph Corp <Ntt> | コンピュータシステム及びシステム制御方法 |
JP2016517550A (ja) * | 2013-02-14 | 2016-06-16 | アダプティブ スペクトラム アンド シグナル アラインメント インコーポレイテッド | ブロードバンドネットワークのチャーン予測 |
US20180088996A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Systems and Methods of Memory Allocation for Neural Networks |
Also Published As
Publication number | Publication date |
---|---|
US20210109729A1 (en) | 2021-04-15 |
US20210109726A1 (en) | 2021-04-15 |
US20210089285A1 (en) | 2021-03-25 |
JP7386706B2 (ja) | 2023-11-27 |
US11334330B2 (en) | 2022-05-17 |
US20220326919A1 (en) | 2022-10-13 |
US20210109725A1 (en) | 2021-04-15 |
US11403080B2 (en) | 2022-08-02 |
WO2019233231A1 (zh) | 2019-12-12 |
US11334329B2 (en) | 2022-05-17 |
US11036480B2 (en) | 2021-06-15 |
US11379199B2 (en) | 2022-07-05 |
US11726754B2 (en) | 2023-08-15 |
EP3751477A4 (en) | 2021-11-03 |
US11307836B2 (en) | 2022-04-19 |
US20210109728A1 (en) | 2021-04-15 |
KR20210017985A (ko) | 2021-02-17 |
US20210109727A1 (en) | 2021-04-15 |
EP3751477A1 (en) | 2020-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7386706B2 (ja) | 汎用機械学習モデル、モデルファイルの生成および解析方法 | |
US10157045B2 (en) | Systems and methods for automatically generating code for deep learning systems | |
CN111427681B (zh) | 边缘计算中基于资源监控的实时任务匹配调度系统和方法 | |
US10303837B2 (en) | Virtual cell model geometry compression | |
US10102039B2 (en) | Converting a hybrid flow | |
EP3843013A1 (en) | Systems and methods for quantizing a neural network | |
CN114399019A (zh) | 神经网络编译方法、系统、计算机设备及存储介质 | |
EP3403221A1 (en) | Systems and methods for automatically generating code for deep learning systems | |
CN114168154B (zh) | 模型数据处理方法、装置、电子设备及存储介质 | |
CN105446952B (zh) | 用于处理语义片段的方法和系统 | |
CN111260071B (zh) | 通用机器学习模型文件解析方法、装置、存储介质 | |
CN111813739A (zh) | 数据迁移方法、装置、计算机设备及存储介质 | |
CN111949312A (zh) | 数据模块的打包方法、装置、计算机设备和存储介质 | |
CN114968325A (zh) | 代码注释的生成方法及装置、处理器和电子设备 | |
CN111338630B (zh) | 通用机器学习模型文件的生成方法、装置、存储介质 | |
CN111258584B (zh) | 通用机器学习二级模型文件解析方法、装置、存储介质 | |
CN111260018B (zh) | 机器学习二级模型文件生成方法、装置、存储介质 | |
CN110647996B (zh) | 通用机器学习模型的执行方法、装置和存储介质 | |
CN116911406B (zh) | 风控模型部署方法、装置、计算机设备和存储介质 | |
WO2021134231A1 (zh) | 基于推理引擎的计算资源分配方法、装置和计算机设备 | |
CN109670601B (zh) | 机器学习特征生成方法及装置、电子设备和存储介质 | |
CN116089430A (zh) | 针对大数据任务的实现方法、装置、设备及存储介质 | |
CN115577760A (zh) | 一种数据处理方法、系统及相关设备 | |
CN117993865A (zh) | 一种研发过程管理方法、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230822 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7386706 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |