JP2016507093A - 回帰モデルを計算するための方法、コンピュータ・プログラム、およびシステム - Google Patents
回帰モデルを計算するための方法、コンピュータ・プログラム、およびシステム Download PDFInfo
- Publication number
- JP2016507093A JP2016507093A JP2015552149A JP2015552149A JP2016507093A JP 2016507093 A JP2016507093 A JP 2016507093A JP 2015552149 A JP2015552149 A JP 2015552149A JP 2015552149 A JP2015552149 A JP 2015552149A JP 2016507093 A JP2016507093 A JP 2016507093A
- Authority
- JP
- Japan
- Prior art keywords
- mapper
- actual
- records
- predictor
- computer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5066—Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
Description
単に実施形態の理解を深めるためであるが、ここでスイープ動作の特性について述べる。
に基づいて、回帰係数
には閉形式解がある。ここでYはn×1ベクトルであり、nはレコード数であり、Xはk個の予測子から導出されたn×p行列であり、
は係数推定値のp×1ベクトルである。
を得るための技法がスイープ動作である。スイープ動作は以下のように機能する。すなわち、交差積(p+1)×(p+1)行列
で、第1のp個のピボットまたはピボット要素についてスイープを行い、その結果が以下である。
ここで、残差平方和(SSE)は、回帰モデルを選択する際に用いる基準の計算において通常必要となる残差平方和である。一般に、第1のp個のピボット要素のいずれかのサブセットについてCをスイープすると、Xのそのサブセットに対するYの回帰に相当する回帰係数の推定値が得られる。
・k=1である場合、2k−1=1であり、第1の予測子に対応するピボット要素(複数のピボット要素)についてスイープを行うことで単一の回帰を実行する。ピボットのシーケンスはS1={1}である。
・k=2である場合、第1の予測子についてスイープを行うことで第1の回帰を実行する。そして、第2の予測子についてスイープを行うと、第1および第2の予測子の双方を含む新しい回帰が生成される。次に再び第1の予測子についてスイープを行うと、第1の予測子は削除され、第2の予測子のみを含む回帰が生成される。ピボットのシーケンスS2={121}についてC行列をスイープすることで、全ての2k−1=3の回帰モデルが生成される。
・k=3である場合、シーケンスS2において第1の回帰が3つ得られる。そして、第3の予測子についてスイープを行うと、シーケンスS2により生成された回帰に第3の予測子を追加した新しい回帰が生成される。シーケンスS2は、第3の予測子を含まない3つの別個の回帰を生成したので、シーケンスS2を繰り返すと、第3の予測子を含む別の3つの回帰が生成される。次いで、ピボットのシーケンスS3={S2,3,S2}={1213121}についてC行列をスイープすることで、2k−1=7の回帰モデルが生成される。
・第1のk−1個の予測子のシーケンスSk−1で、k−1個の予測子に対する全ての2k−1の可能な回帰が得られると想定する。そして、k番目の予測子についてスイープを行うと、シーケンスSk−1により生成された回帰モデルにk番目の予測子を追加した新しい回帰モデルが生成される。次いでシーケンスSk−1を繰り返すと、k番目の予測子を含む別の2k−1の別個の回帰モデルが生成される。従って、ピボットのシーケンスSk={Sk−1,k,Sk−1}についてC行列をスイープすることで、2k−1の回帰モデルが生成される。
等を構築するための1つの技法は帰納的プロセスであり、2k−1の回帰モデルを順次生成することができる。一方、シーケンスSkをいくつかのサブシーケンスに分解可能であることは容易に理解でき、その後に各サブセットから2k−1の回帰モデルのサブセットを生成することができる。例えば、シーケンス
を4個のサブシーケンスまたはローカル・シーケンスに分解すると、{121}、{3121}、{34121}、{4121}であり、これら4つのサブシーケンスによって15の回帰モデルを並列に生成することができる。
スイープ動作を用いて回帰モデルを発生させるため、実施形態は最初に、XおよびYに基づいた(p+1)×(p+1)行列である交差積行列Cを計算する。この計算は、大きい分散データ・ソースのためのマップ・リデュース・フレームワークにおいて行われる。次いで、2kの回帰モデルの計算により、C行列に繰り返しスイープ動作を適用する。このような計算はデータ・ソースに基づかないので、典型的なマップ・リデュース・ジョブではない。従って実施形態は、2kの回帰モデルを計算するために、マップ・リデュース・フレームワークにおける並列計算の潜在機能を活用する。
(a)M≦L いくつかの実施形態では、効率を上げるためにこれを用いる。代替的な実施形態では、M>Lを用いる。
(b)M=2m、m<k−1 各ローカル検索シーケンスのサイズが2k−mであると、M個のマッパーは2kの回帰モデルをカバーすることができる。
本開示はクラウド・コンピューティングに関する詳細な記述を含むが、本明細書に述べる教示の実施はクラウド・コンピューティング環境に限定されないことは予め理解されるであろう。本発明の実施形態は、現在既知であるかまたは今後開発される他のいかなるタイプのコンピューティング環境とも関連付けて実施することができる。
当業者によって認められるように、本発明の態様は、システム、方法、またはコンピュータ・プログラムとして具現化することができる。従って、本発明の態様は、全体的にハードウェアの実施形態、全体的にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)、または、ソフトウェアおよびハードウェアの態様を組み合わせた実施形態という形態を取ることができ、それらは全て本明細書において、「回路」、「モジュール」、または「システム」と一般的に称することができる。更に、本発明の態様は、具現化されたコンピュータ読み取り可能プログラム・コードを有する1つまたは複数のコンピュータ読み取り可能媒体(複数の媒体)において具現化されたコンピュータ・プログラムの形態を取ることも可能である。
Claims (25)
- レコードの処理データ集合を生成することであって、前記レコードの各々が、実際のサブタスク集合からの1つのサブタスクに固有のデータを含み、更に、前記実際のサブタスク集合によって共有されるデータに対する参照を含み、前記レコードの数が、前記実際のサブタスク集合内の前記実際のサブタスクの数に相当する、ことと、
マッパー集合における各マッパーによって、前記処理データ集合の前記レコードの1つを受信することと、
前記レコードの前記受信した1つを用いて割り当てられたサブタスクを実行して出力を発生させることと、
単一のリデューサーによって、前記マッパー集合内の各マッパーからの前記出力を集約してタスク結果を決定することと、
を含むコンピュータ・システムによって実行される方法。 - 元のデータセットの少なくとも1つの特徴に基づいて、潜在的サブタスクの最大数を計算することと、
前記実際のサブタスクの実行に利用可能な前記マッパー集合内のマッパー数と前記潜在的サブタスクの最大数とに基づいて、実行される前記実際のタスク集合内の実際のサブタスク数を計算することと、
を更に含む、請求項1に記載の方法。 - M個の実際のサブタスクとして示される前記実際のサブタスク数を計算することを更に含み、M=2mであり、M≦Lおよびm<k−lであり、Lは、前記実際のサブタスクの計算に利用可能な前記マッパー集合内の前記マッパー数であり、kは予測子の数である、請求項2に記載の方法。
- 前記予測子を、先行インデックス予測子と共通インデックス予測子とに分割することを更に含む、請求項3に記載の方法。
- グローバル検索シーケンスをM個の多数のローカル検索シーケンスに分割することと、
前記ローカル検索シーケンスの各々について、前記先行インデックス予測子から先行インデックス・シーケンスを識別することと、
M個のレコードを用いて一時入力ファイルを生成することと、を更に含み、前記レコードの各々が先行インデックス・シーケンスを含み、前記レコードの各々が、共通インデックス予測子およびスイープ動作を適用する行列に対する参照を含む、請求項4に記載の方法。 - 前記マッパー集合内の各マッパーにおいて、
前記ローカル検索シーケンスの1つの先行インデックス・シーケンスを受信することと、
処理データ集合の各レコードにおける前記参照を介して共通インデックス予測子および前記行列を受信することと、
前記共通インデックス予測子を用いて共通インデックス・シーケンスを発生させることと、
前記先行インデックス・シーケンスに従って前記行列にスイープ動作を実行することと、
前記共通インデックス・シーケンスに従って、結果として得られた前記行列にスイープ動作を実行することと、
前記出力を識別することと、を更に含み、前記出力がローカル回帰モデルである、請求項5に記載の方法。 - 前記共通インデックス・シーケンスを送信することなく、前記先行インデックス・シーケンスを前記マッパー集合内の各マッパーに送信することが、ネットワーク・トラフィックを軽減する、請求項6に記載の方法。
- 前記タスク結果がグローバル回帰モデルである、請求項6に記載の方法。
- クラウド環境におけるサービスとしてソフトウェアが提供される、請求項1に記載の方法。
- 具現化されたコンピュータ読み取り可能プログラム・コードを有するコンピュータ読み取り可能記憶媒体であって、前記コンピュータ読み取り可能プログラム・コードが、コンピュータの少なくとも1つのプロセッサによって実行された場合、
レコードの処理データ集合を生成することであって、前記レコードの各々が、実際のサブタスク集合からの1つのサブタスクに固有のデータを含み、更に、前記実際のサブタスク集合によって共有されるデータに対する参照を含み、前記レコードの数が、前記実際のサブタスク集合内の前記実際のサブタスクの数に相当する、ことと、
マッパー集合における各マッパーによって、前記処理データ集合の前記レコードの1つを受信することと、
前記レコードの前記受信した1つを用いて割り当てられたサブタスクを実行して出力を発生させることと、単一のリデューサーによって、前記マッパー集合内の各マッパーからの前記出力を集約してタスク結果を決定することと、を実行するように構成されている、コンピュータ読み取り可能記憶媒体、
を含む、コンピュータ・プログラム。 - 前記コンピュータ読み取り可能プログラム・コードが、前記コンピュータの前記少なくとも1つのプロセッサによって実行された場合、
元のデータセットの少なくとも1つの特徴に基づいて、潜在的サブタスクの最大数を計算することと、
前記実際のサブタスクの実行に利用可能な前記マッパー集合内のマッパー数と前記潜在的サブタスクの最大数とに基づいて、実行される前記実際のタスク集合内の実際のサブタスク数を計算することと、
を実行するように構成されている、請求項10に記載のコンピュータ・プログラム。 - 前記コンピュータ読み取り可能プログラム・コードが、前記コンピュータの前記少なくとも1つのプロセッサによって実行された場合、
M個の実際のサブタスクとして示される前記実際のサブタスク数を計算することを実行するように構成され、M=2mであり、M≦Lおよびm<k−lであり、Lは、前記実際のサブタスクの計算に利用可能な前記マッパー集合内の前記マッパー数であり、kは予測子の数である、請求項10に記載のコンピュータ・プログラム。 - 前記コンピュータ読み取り可能プログラム・コードが、前記コンピュータの前記少なくとも1つのプロセッサによって実行された場合、
前記予測子を、先行インデックス予測子と共通インデックス予測子とに分割することを実行するように構成されている、請求項12に記載のコンピュータ・プログラム。 - 前記コンピュータ読み取り可能プログラム・コードが、前記コンピュータの前記少なくとも1つのプロセッサによって実行された場合、
グローバル検索シーケンスをM個の多数のローカル検索シーケンスに分割することと、
前記ローカル検索シーケンスの各々について、前記先行インデックス予測子から先行インデックス・シーケンスを識別することと、
M個のレコードを用いて一時入力ファイルを生成することと、を実行するように構成され、前記レコードの各々が先行インデックス・シーケンスを含み、前記レコードの各々が、共通インデックス予測子およびスイープ動作を適用する行列に対する参照を含む、請求項13に記載のコンピュータ・プログラム。 - 前記コンピュータ読み取り可能プログラム・コードが、前記コンピュータの前記少なくとも1つのプロセッサによって実行された場合、
前記マッパー集合内の各マッパーにおいて、前記ローカル検索シーケンスの1つの先行インデックス・シーケンスを受信することと、
処理データ集合の各レコードにおける前記参照を介して共通インデックス予測子および前記行列を受信することと、
前記共通インデックス予測子を用いて共通インデックス・シーケンスを発生させることと、
前記先行インデックス・シーケンスに従って前記行列にスイープ動作を実行することと、
前記共通インデックス・シーケンスに従って、結果として得られた前記行列にスイープ動作を実行することと、
前記出力を識別することと、を実行するように構成され、前記出力がローカル回帰モデルである、請求項14に記載のコンピュータ・プログラム。 - 前記共通インデックス・シーケンスを送信することなく、前記先行インデックス・シーケンスを前記マッパー集合内の各マッパーに送信することが、ネットワーク・トラフィックを軽減する、請求項15に記載のコンピュータ・プログラム。
- サース(SaaS:Software as a Service)が、前記コンピュータ・プログラムの動作を実行するように構成されている、請求項10に記載のコンピュータ・プログラム。
- コンピュータ・システムであって、
プロセッサと、
前記プロセッサに接続された記憶デバイスと、を備え、前記記憶デバイスがプログラムを記憶しており、前記プロセッサが前記プログラムの命令を実行して動作を実行するように構成され、前記動作が、
レコードの処理データ集合を生成することであって、前記レコードの各々が、実際のサブタスク集合からの1つのサブタスクに固有のデータを含み、更に、前記実際のサブタスク集合によって共有されるデータに対する参照を含み、前記レコードの数が、前記実際のサブタスク集合内の前記実際のサブタスクの数に相当する、ことと、
マッパー集合における各マッパーによって、前記処理データ集合の前記レコードの1つを受信することと、前記レコードの前記受信した1つを用いて割り当てられたサブタスクを実行して出力を発生させることと、
単一のリデューサーによって、前記マッパー集合内の各マッパーからの前記出力を集約してタスク結果を決定することと、
を含む、コンピュータ・システム。 - 前記動作が更に、
元のデータセットの少なくとも1つの特徴に基づいて、潜在的サブタスクの最大数を計算することと、
前記実際のサブタスクの実行に利用可能な前記マッパー集合内のマッパー数と前記潜在的サブタスクの最大数とに基づいて、実行される前記実際のタスク集合内の実際のサブタスク数を計算することと、
を含む、請求項18に記載のコンピュータ・システム。 - 前記動作が更に、
M個の実際のサブタスクとして示される前記実際のサブタスク数を計算することを含み、M=2mであり、M≦Lおよびm<k−lであり、Lは、前記実際のサブタスクの計算に利用可能な前記マッパー集合内の前記マッパー数であり、kは予測子の数である、請求項18に記載のコンピュータ・システム。 - 前記動作が更に、
前記予測子を、先行インデックス予測子と共通インデックス予測子とに分割することを含む、請求項20に記載のコンピュータ・システム。 - 前記動作が更に、
グローバル検索シーケンスをM個の多数のローカル検索シーケンスに分割することと、
前記ローカル検索シーケンスの各々について、前記先行インデックス予測子から先行インデックス・シーケンスを識別することと、
M個のレコードを用いて一時入力ファイルを生成することと、を含み、前記レコードの各々が先行インデックス・シーケンスを含み、前記レコードの各々が、共通インデックス予測子およびスイープ動作を適用する行列に対する参照を含む、請求項21に記載のコンピュータ・システム。 - 前記動作が更に、
前記マッパー集合内の各マッパーにおいて、前記ローカル検索シーケンスの1つの先行インデックス・シーケンスを受信することと、
処理データ集合の各レコードにおける前記参照を介して共通インデックス予測子および前記行列を受信することと、
前記共通インデックス予測子を用いて共通インデックス・シーケンスを発生させることと、
前記先行インデックス・シーケンスに従って前記行列にスイープ動作を実行することと、
前記共通インデックス・シーケンスに従って、結果として得られた前記行列にスイープ動作を実行することと、
前記出力を識別することと、を含み、前記出力がローカル回帰モデルである、請求項22に記載のコンピュータ・システム。 - 前記共通インデックス・シーケンスを送信することなく、前記先行インデックス・シーケンスを前記マッパー集合内の各マッパーに送信することが、ネットワーク・トラフィックを軽減する、請求項23に記載のコンピュータ・システム。
- サース(SaaS:Software as a Service)が、前記システムの動作を実行するように設けられている、請求項18に記載のコンピュータ・システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/739,667 US9159028B2 (en) | 2013-01-11 | 2013-01-11 | Computing regression models |
US13/739,667 | 2013-01-11 | ||
PCT/IB2013/059603 WO2014108768A1 (en) | 2013-01-11 | 2013-10-24 | Computing regression models |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016507093A true JP2016507093A (ja) | 2016-03-07 |
JP6234477B2 JP6234477B2 (ja) | 2017-11-22 |
Family
ID=51166314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015552149A Active JP6234477B2 (ja) | 2013-01-11 | 2013-10-24 | 回帰モデルを計算するための方法、コンピュータ・プログラム、およびシステム |
Country Status (4)
Country | Link |
---|---|
US (2) | US9159028B2 (ja) |
JP (1) | JP6234477B2 (ja) |
CN (1) | CN104937544B (ja) |
WO (1) | WO2014108768A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10491663B1 (en) * | 2013-10-28 | 2019-11-26 | Amazon Technologies, Inc. | Heterogeneous computations on homogeneous input data |
US9811504B1 (en) | 2013-11-08 | 2017-11-07 | Michael Epelbaum | Lifespan in multivariable binary regression analyses of mortality and survivorship |
US9600342B2 (en) * | 2014-07-10 | 2017-03-21 | Oracle International Corporation | Managing parallel processes for application-level partitions |
CN104407811B (zh) * | 2014-11-12 | 2017-09-19 | 珠海世纪鼎利科技股份有限公司 | 一种基于云计算的合并io装置 |
US10496514B2 (en) * | 2014-11-20 | 2019-12-03 | Kevin D. Howard | System and method for parallel processing prediction |
CN104834561B (zh) | 2015-04-29 | 2018-01-19 | 华为技术有限公司 | 一种数据处理方法及装置 |
WO2018222217A1 (en) * | 2017-05-29 | 2018-12-06 | Epelbaum Michael | Lifespan in regression-based estimation of phenomenon-specific probabilities of mortality or survivorship |
CN109885388A (zh) * | 2019-01-31 | 2019-06-14 | 上海赜睿信息科技有限公司 | 一种适用于异构系统的数据处理方法和装置 |
CN111782385A (zh) * | 2019-04-04 | 2020-10-16 | 伊姆西Ip控股有限责任公司 | 用于处理任务的方法、电子设备和计算机程序产品 |
US11144435B1 (en) | 2020-03-30 | 2021-10-12 | Bank Of America Corporation | Test case generation for software development using machine learning |
US11036613B1 (en) | 2020-03-30 | 2021-06-15 | Bank Of America Corporation | Regression analysis for software development and management using machine learning |
CN117555696B (zh) * | 2024-01-11 | 2024-03-15 | 西北工业大学 | 一种多模型并发执行的数据交互方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259433A (ja) * | 1998-03-09 | 1999-09-24 | Fujitsu Ltd | 並列実行システム |
US20120016816A1 (en) * | 2010-07-15 | 2012-01-19 | Hitachi, Ltd. | Distributed computing system for parallel machine learning |
US8209274B1 (en) * | 2011-05-09 | 2012-06-26 | Google Inc. | Predictive model importation |
JP2012160014A (ja) * | 2011-01-31 | 2012-08-23 | Nippon Telegr & Teleph Corp <Ntt> | データ分析及び機械学習処理装置及び方法及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5841772A (en) * | 1996-03-07 | 1998-11-24 | Lsi Logic Corporation | ATM communication system interconnect/termination unit |
AU2002316146B2 (en) * | 2001-05-15 | 2007-09-06 | Psychogenics Inc. | Systems and methods for monitoring behaviour informatics |
US8190610B2 (en) * | 2006-10-05 | 2012-05-29 | Yahoo! Inc. | MapReduce for distributed database processing |
US7599898B2 (en) | 2006-10-17 | 2009-10-06 | International Business Machines Corporation | Method and apparatus for improved regression modeling |
US20100162230A1 (en) * | 2008-12-24 | 2010-06-24 | Yahoo! Inc. | Distributed computing system for large-scale data handling |
WO2010085773A1 (en) * | 2009-01-24 | 2010-07-29 | Kontera Technologies, Inc. | Hybrid contextual advertising and related content analysis and display techniques |
US8713038B2 (en) * | 2009-04-02 | 2014-04-29 | Pivotal Software, Inc. | Integrating map-reduce into a distributed relational database |
US8572575B2 (en) | 2009-09-14 | 2013-10-29 | Myspace Llc | Debugging a map reduce application on a cluster |
US9619291B2 (en) * | 2009-12-20 | 2017-04-11 | Yahoo! Inc. | System and method for a task management library to execute map-reduce applications in a map-reduce framework |
GB201007697D0 (en) * | 2010-05-06 | 2010-06-23 | Ucl Business Plc | A supra-threshold test for use in detecting sensitivity loss across the field of vision |
GB2485783A (en) | 2010-11-23 | 2012-05-30 | Kube Partners Ltd | Method for anonymising personal information |
US8799916B2 (en) * | 2011-02-02 | 2014-08-05 | Hewlett-Packard Development Company, L. P. | Determining an allocation of resources for a job |
US8943011B2 (en) * | 2011-06-28 | 2015-01-27 | Salesforce.Com, Inc. | Methods and systems for using map-reduce for large-scale analysis of graph-based data |
CN102385719A (zh) | 2011-11-01 | 2012-03-21 | 中国科学院计算技术研究所 | 回归预测方法及装置 |
CN102662639A (zh) | 2012-04-10 | 2012-09-12 | 南京航空航天大学 | 一种基于Mapreduce的多GPU协同计算方法 |
-
2013
- 2013-01-11 US US13/739,667 patent/US9159028B2/en not_active Expired - Fee Related
- 2013-10-24 CN CN201380070189.5A patent/CN104937544B/zh active Active
- 2013-10-24 JP JP2015552149A patent/JP6234477B2/ja active Active
- 2013-10-24 WO PCT/IB2013/059603 patent/WO2014108768A1/en active Application Filing
-
2014
- 2014-03-21 US US14/222,462 patent/US9152921B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11259433A (ja) * | 1998-03-09 | 1999-09-24 | Fujitsu Ltd | 並列実行システム |
US20120016816A1 (en) * | 2010-07-15 | 2012-01-19 | Hitachi, Ltd. | Distributed computing system for parallel machine learning |
JP2012022558A (ja) * | 2010-07-15 | 2012-02-02 | Hitachi Ltd | 分散計算システム |
JP2012160014A (ja) * | 2011-01-31 | 2012-08-23 | Nippon Telegr & Teleph Corp <Ntt> | データ分析及び機械学習処理装置及び方法及びプログラム |
US8209274B1 (en) * | 2011-05-09 | 2012-06-26 | Google Inc. | Predictive model importation |
Non-Patent Citations (1)
Title |
---|
福本 佳史、鬼塚 真: "複数分析処理におけるMapReduce最適化", 第3回データ工学と情報マネジメントに関するフォーラム 論文集, vol. DEIM Forum 2011 C3-4, JPN6017037395, 27 February 2011 (2011-02-27), pages 1 - 8, ISSN: 0003650937 * |
Also Published As
Publication number | Publication date |
---|---|
US20140207722A1 (en) | 2014-07-24 |
JP6234477B2 (ja) | 2017-11-22 |
CN104937544A (zh) | 2015-09-23 |
WO2014108768A1 (en) | 2014-07-17 |
CN104937544B (zh) | 2017-06-13 |
US9152921B2 (en) | 2015-10-06 |
US9159028B2 (en) | 2015-10-13 |
US20140201744A1 (en) | 2014-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6234477B2 (ja) | 回帰モデルを計算するための方法、コンピュータ・プログラム、およびシステム | |
US10346391B2 (en) | Vertical tuning of distributed analytics clusters | |
US10310908B2 (en) | Dynamic usage balance of central processing units and accelerators | |
US11182193B2 (en) | Optimizing image reconstruction for container registries | |
US20180107527A1 (en) | Determining storage tiers for placement of data sets during execution of tasks in a workflow | |
US11263052B2 (en) | Determining optimal compute resources for distributed batch based optimization applications | |
US20160321095A1 (en) | Placement of virtual machines on physical hosts | |
US11321121B2 (en) | Smart reduce task scheduler | |
JP2023541146A (ja) | 局所性鋭敏型ハッシングを使用する連合機械学習 | |
US20200167206A1 (en) | System, method and recording medium for temperature-aware task scheduling | |
US11842260B2 (en) | Incremental and decentralized model pruning in federated machine learning | |
US11573823B2 (en) | Parallel execution of applications | |
US10346424B2 (en) | Object processing | |
US10635579B2 (en) | Optimizing tree pruning for decision trees | |
US20230325256A1 (en) | Deep neural network management of overbooking in a multi-tenant computing environment | |
US10423575B2 (en) | Computational storage for distributed computing | |
US11487750B2 (en) | Dynamically optimizing flows in a distributed transaction processing environment | |
US10680912B1 (en) | Infrastructure resource provisioning using trace-based workload temporal analysis for high performance computing | |
US11204923B2 (en) | Performance for query execution | |
US11500870B1 (en) | Flexible query execution | |
US20230186168A1 (en) | Performing automated tuning of hyperparameters in a federated learning environment | |
US20230266997A1 (en) | Distributed scheduling in container orchestration engines | |
US20230177307A1 (en) | Model compression service based on runtime performance | |
US20220012220A1 (en) | Data enlargement for big data analytics and system identification | |
US20220114434A1 (en) | Goal-seek analysis with spatial-temporal data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6234477 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |