JP2020512639A5 - - Google Patents

Download PDF

Info

Publication number
JP2020512639A5
JP2020512639A5 JP2019552038A JP2019552038A JP2020512639A5 JP 2020512639 A5 JP2020512639 A5 JP 2020512639A5 JP 2019552038 A JP2019552038 A JP 2019552038A JP 2019552038 A JP2019552038 A JP 2019552038A JP 2020512639 A5 JP2020512639 A5 JP 2020512639A5
Authority
JP
Japan
Prior art keywords
sequence
embedding
embeddings
operations
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019552038A
Other languages
English (en)
Other versions
JP6790286B2 (ja
JP2020512639A (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/US2018/024155 external-priority patent/WO2018175972A1/en
Publication of JP2020512639A publication Critical patent/JP2020512639A/ja
Publication of JP2020512639A5 publication Critical patent/JP2020512639A5/ja
Application granted granted Critical
Publication of JP6790286B2 publication Critical patent/JP6790286B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Claims (20)

  1. コンピュータ実装方法であって、
    複数のハードウェアデバイス上での分散処理のために配置されるべき機械学習モデルを指定するデータを受け取るステップと、
    前記機械学習モデルを指定する前記データから、オペレーション埋込みのシーケンスを生成するステップであって、前記シーケンスでの各オペレーション埋込みが、前記機械学習モデルの前記分散処理を行うことの一部である1つまたは複数のそれぞれのオペレーションを特徴づける、ステップと、
    配置リカレントニューラルネットワークの複数のネットワークパラメータの第1の値に従って、前記配置リカレントニューラルネットワークを使用して、オペレーション埋込みの前記シーケンスを処理するステップであって、
    前記配置リカレントニューラルネットワークが、前記複数のデバイスにわたる前記シーケンスでの前記オペレーション埋込みによって特徴づけられた前記オペレーションの配置を定義するネットワーク出力を生成するために、前記第1の値に従ってオペレーション埋込みの前記シーケンスを処理するように構成される、ステップと、
    前記ネットワーク出力によって定義された前記配置に従って前記複数のデバイスに前記オペレーションを配置することによって、前記複数のハードウェアデバイスによる処理のために前記機械学習モデルをスケジュールするステップと
    を含む、方法。
  2. 前記オペレーション埋込みによって特徴づけられた前記オペレーションが、前記機械学習モデルを訓練することの一部であるオペレーションである、請求項1に記載の方法。
  3. 前記オペレーション埋込みによって特徴づけられた前記オペレーションが、前記機械学習モデルを使用して推論を行うことの一部であるオペレーションである、請求項1に記載の方法。
  4. 前記機械学習モデルを指定する前記データが、オペレーションを表す頂点と、前記オペレーション間のデータ通信を表すエッジとを有する計算グラフを表すデータである、請求項1に記載の方法。
  5. オペレーション埋込みの前記シーケンスを生成するステップが、
    前記計算グラフ中の頂点によって表される前記オペレーションの2つ以上が、同じデバイス上に併置されるべきであることを決定するステップと、
    それに応じて、前記2つ以上のオペレーションを特徴づける単一のオペレーション埋込みを生成するステップと
    を含む、請求項4に記載の方法。
  6. 特定のオペレーションを特徴づけるオペレーション埋込みを生成するステップが、
    前記特定のオペレーションのオペレーションタイプのタイプ埋込みを生成するステップと、
    前記特定のオペレーションによって生成される出力のサイズを特徴づける出力サイズ埋込みを生成するステップと、
    入力を提供し、前記特定のオペレーションによって生成された出力を受け取るオペレーションを識別する隣接性埋込みを生成するステップと、
    前記特定のオペレーションを特徴づける前記オペレーション埋込みを生成するために、前記タイプ埋込み、前記出力サイズ埋込み、および前記隣接性埋込みを結合するステップと
    を含む、請求項1に記載の方法。
  7. 前記配置リカレントニューラルネットワークが、前記シーケンスでの前記オペレーション埋込みの各々に対して、前記複数のデバイスの各々に対するそれぞれのスコアを含むスコアのセットを生成するように構成され、
    オペレーション埋込みの前記シーケンスを処理するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットを使用して前記オペレーションの各々に対してデバイスを選択するステップを含む、
    請求項1に記載の方法。
  8. 前記オペレーションの各々に対して前記デバイスを選択するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットに従って、最も高いスコアを有する前記デバイスを選択するステップを含む、請求項7に記載の方法。
  9. 前記オペレーションの各々に対して前記デバイスを選択するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットによって定義された確率に従って、前記複数のデバイスからデバイスをサンプリングするステップを含む、請求項7に記載の方法。
  10. 前記配置リカレントニューラルネットワークが、
    前記オペレーション埋込みの各々に対してそれぞれのエンコーダ隠れ状態を生成するために、オペレーション埋込みの前記シーケンスを処理するように構成されたエンコーダリカレントニューラルネットワークと、
    前記オペレーション埋込みの各々に対して、
    デコーダ入力を受け取ることと、
    前記オペレーション埋込みのためのスコアの前記セットを生成するために、前記デコーダ入力および前記エンコーダ隠れ状態を処理することと
    を行うように構成された、デコーダニューラルネットワークと
    を備える、請求項7に記載の方法。
  11. 前記シーケンスでの第1のオペレーション埋込み後の前記オペレーション埋込みの各々に対する前記デコーダ入力が、前記シーケンスでの先行するオペレーション埋込みによって表される前記1つまたは複数のオペレーションに選択されるデバイスを識別する、請求項10に記載の方法。
  12. 前記ネットワークパラメータの初期値から、前記ネットワークパラメータの前記第1の値を決定するステップであって、
    前記複数のデバイスにわたる前記オペレーションの1つまたは複数の配置を選択するために、配置リカレントニューラルネットワークの複数のネットワークパラメータの現在の値に従って、前記配置リカレントニューラルネットワークを使用して、オペレーション埋込みの現在のシーケンスを処理することと、
    各選択された配置に対して、
    前記配置に従って前記複数のデバイスにわたる前記オペレーションで前記機械学習モデルの前記処理を行い、
    前記処理が完了するために必要な時間を決定することと、
    前記選択された配置の各々に対して前記処理が完了するために必要な前記時間から導出される報酬を使用する強化学習技法を使用して前記複数のネットワークのパラメータの前記現在の値を調整することと
    を繰り返し行うことによって、前記ネットワークパラメータの前記第1の値を決定するステップ
    をさらに含む、請求項1に記載の方法。
  13. 前記強化学習技法がREINFORCE技法である、請求項12に記載の方法。
  14. 前記強化学習技法が、前記必要な時間の移動平均であるベースラインを含む、請求項12に記載の方法。
  15. 前記パラメータの前記現在の値を調整するステップが、前記強化学習技法の一部として前記現在のシーケンスでの前記オペレーション埋込みを調整することをさらに含む、請求項12に記載の方法。
  16. 1つまたは複数のコンピュータと、
    前記1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに
    複数のハードウェアデバイス上での分散処理のために配置されるべき機械学習モデルを指定するデータを受け取るステップと、
    前記機械学習モデルを指定する前記データから、オペレーション埋込みのシーケンスを生成するステップであって、前記シーケンスでの各オペレーション埋込みが、前記機械学習モデルの前記分散処理を行うことの一部である1つまたは複数のそれぞれのオペレーションを特徴づける、ステップと、
    配置リカレントニューラルネットワークの複数のネットワークパラメータの第1の値に従って、前記配置リカレントニューラルネットワークを使用して、オペレーション埋込みの前記シーケンスを処理するステップであって、
    前記配置リカレントニューラルネットワークが、前記複数のデバイスにわたる前記シーケンスでの前記オペレーション埋込みによって特徴づけられた前記オペレーションの配置を定義するネットワーク出力を生成するために、前記第1の値に従ってオペレーション埋込みの前記シーケンスを処理するように構成される、ステップと、
    前記ネットワーク出力によって定義された前記配置に従って前記複数のデバイスに前記オペレーションを配置することによって、前記複数のハードウェアデバイスによる処理のために前記機械学習モデルをスケジュールするステップと
    行わせる命令を記憶した1つまたは複数のストレージデバイスと
    を備える、システム。
  17. 1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに
    複数のハードウェアデバイス上での分散処理のために配置されるべき機械学習モデルを指定するデータを受け取るステップと、
    前記機械学習モデルを指定する前記データから、オペレーション埋込みのシーケンスを生成するステップであって、前記シーケンスでの各オペレーション埋込みが、前記機械学習モデルの前記分散処理を行うことの一部である1つまたは複数のそれぞれのオペレーションを特徴づける、ステップと、
    配置リカレントニューラルネットワークの複数のネットワークパラメータの第1の値に従って、前記配置リカレントニューラルネットワークを使用して、オペレーション埋込みの前記シーケンスを処理するステップであって、
    前記配置リカレントニューラルネットワークが、前記複数のデバイスにわたる前記シーケンスでの前記オペレーション埋込みによって特徴づけられた前記オペレーションの配置を定義するネットワーク出力を生成するために、前記第1の値に従ってオペレーション埋込みの前記シーケンスを処理するように構成される、ステップと、
    前記ネットワーク出力によって定義された前記配置に従って前記複数のデバイスに前記オペレーションを配置することによって、前記複数のハードウェアデバイスによる処理のために前記機械学習モデルをスケジュールするステップと
    行わせる命令を記憶した1つまたは複数のコンピュータ記憶媒体。
  18. 特定のオペレーションを特徴づけるオペレーション埋込みを生成するステップが、
    前記特定のオペレーションのオペレーションタイプのタイプ埋込みを生成するステップと、
    前記特定のオペレーションによって生成される出力のサイズを特徴づける出力サイズ埋込みを生成するステップと、
    入力を提供し、前記特定のオペレーションによって生成された出力を受け取るオペレーションを識別する隣接性埋込みを生成するステップと、
    前記特定のオペレーションを特徴づける前記オペレーション埋込みを生成するために、前記タイプ埋込み、前記出力サイズ埋込み、および前記隣接性埋込みを結合するステップと
    を含む、請求項17に記載の1つまたは複数のコンピュータ記憶媒体。
  19. 前記配置リカレントニューラルネットワークが、前記シーケンスでの前記オペレーション埋込みの各々に対して、前記複数のデバイスの各々に対するそれぞれのスコアを含むスコアのセットを生成するように構成され、
    オペレーション埋込みの前記シーケンスを処理するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットを使用して前記オペレーションの各々に対してデバイスを選択するステップを含む、
    請求項17に記載の1つまたは複数のコンピュータ記憶媒体。
  20. 前記オペレーションの各々に対して前記デバイスを選択するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットに従って、最も高いスコアを有する前記デバイスを選択するステップを含む、請求項19に記載の1つまたは複数のコンピュータ記憶媒体。
JP2019552038A 2017-03-24 2018-03-23 強化学習を用いたデバイス配置最適化 Active JP6790286B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762476618P 2017-03-24 2017-03-24
US62/476,618 2017-03-24
PCT/US2018/024155 WO2018175972A1 (en) 2017-03-24 2018-03-23 Device placement optimization with reinforcement learning

Publications (3)

Publication Number Publication Date
JP2020512639A JP2020512639A (ja) 2020-04-23
JP2020512639A5 true JP2020512639A5 (ja) 2020-07-27
JP6790286B2 JP6790286B2 (ja) 2020-11-25

Family

ID=61913686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019552038A Active JP6790286B2 (ja) 2017-03-24 2018-03-23 強化学習を用いたデバイス配置最適化

Country Status (6)

Country Link
US (3) US10692003B2 (ja)
EP (1) EP3559868A1 (ja)
JP (1) JP6790286B2 (ja)
KR (1) KR102208989B1 (ja)
CN (2) CN110268422B (ja)
WO (1) WO2018175972A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11556520B2 (en) 2017-11-13 2023-01-17 Lendingclub Corporation Techniques for automatically addressing anomalous behavior
US11354301B2 (en) 2017-11-13 2022-06-07 LendingClub Bank, National Association Multi-system operation audit log
WO2020117991A1 (en) * 2018-12-04 2020-06-11 Google Llc Generating integrated circuit floorplans using neural networks
JP7050023B2 (ja) * 2019-03-22 2022-04-07 Kddi株式会社 ネットワーク障害復旧システム、コンピュータプログラム及びネットワーク障害復旧方法
KR102371927B1 (ko) * 2019-10-17 2022-03-11 (주)유밥 학습 콘텐츠 추천 방법 및 장치
KR102272501B1 (ko) 2020-04-24 2021-07-01 연세대학교 산학협력단 분산 강화 학습 장치 및 방법
US11288097B2 (en) 2020-06-12 2022-03-29 Disney Enterprises, Inc. Automated hardware resource optimization
CN111753973A (zh) * 2020-06-22 2020-10-09 深圳鲲云信息科技有限公司 一种神经网络芯片的优化方法、系统、设备和存储介质
US20200327392A1 (en) * 2020-06-26 2020-10-15 Intel Corporation Methods, systems, articles of manufacture, and apparatus to optimize layers of a machine learning model for a target hardware platform
US20220083824A1 (en) * 2020-09-11 2022-03-17 Actapio, Inc. Execution control apparatus, execution control method, and a non-transitory computer-readable storage medium
KR102257028B1 (ko) * 2020-10-06 2021-05-27 주식회사 딥이티 컴퓨팅 플랫폼 기반의 적응형 딥러닝 작업 할당 장치 및 방법
KR20220045800A (ko) * 2020-10-06 2022-04-13 삼성전자주식회사 인공지능 모델을 분산 처리하는 시스템 및 그 동작 방법
JP2023020264A (ja) * 2021-07-30 2023-02-09 株式会社Screenホールディングス スケジュール作成方法、スケジュール作成装置、基板処理装置、基板処理システム、記録媒体、及びスケジュール作成プログラム
KR102573644B1 (ko) * 2021-08-24 2023-09-01 주식회사 에너자이 실행 엔진 최적화 방법, 실행 엔진 최적화 장치, 및 실행 엔진 최적화 시스템
US11509836B1 (en) 2021-12-29 2022-11-22 Insight Direct Usa, Inc. Dynamically configured processing of a region of interest dependent upon published video data selected by a runtime configuration file
US11704891B1 (en) 2021-12-29 2023-07-18 Insight Direct Usa, Inc. Dynamically configured extraction, preprocessing, and publishing of a region of interest that is a subset of streaming video data
WO2023163453A1 (ko) * 2022-02-23 2023-08-31 주식회사 에너자이 임베디드 장치에서 실행될 신경망 모델 최적화 방법, 신경망 모델 최적화 장치, 및 신경망 모델 최적화 시스템
WO2023243896A1 (ko) * 2022-06-17 2023-12-21 삼성전자 주식회사 인공신경망의 추론 분산 비율 결정 전자 장치 및 그 동작 방법
US11778167B1 (en) 2022-07-26 2023-10-03 Insight Direct Usa, Inc. Method and system for preprocessing optimization of streaming video data
WO2024053910A1 (ko) * 2022-09-08 2024-03-14 삼성전자주식회사 기계학습 모델에 적합한 가속기를 선택하는 장치 및 방법
KR102603130B1 (ko) 2022-12-27 2023-11-17 주식회사 애자일소다 강화학습 기반의 면적 및 매크로 배치 최적화를 위한 설계 시스템 및 방법
KR102634706B1 (ko) 2023-05-31 2024-02-13 주식회사 애자일소다 데드 스페이스의 최소화를 위한 집적회로 설계 장치 및 방법
KR102645072B1 (ko) 2023-05-31 2024-03-08 주식회사 애자일소다 매크로의 핀 방향 최적화를 위한 후처리 장치 및 방법
CN117058491B (zh) * 2023-10-12 2024-04-02 深圳大学 基于递归神经网络的结构化网格布局生成方法及设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108595A (ja) * 1991-10-17 1993-04-30 Hitachi Ltd ニユーラルネツトワークの分散学習装置
KR100676863B1 (ko) 2004-08-31 2007-02-02 주식회사 코난테크놀로지 음악 검색 서비스 제공 시스템 및 방법
US7870556B2 (en) * 2006-05-16 2011-01-11 Ab Initio Technology Llc Managing computing resources in graph-based computations
KR20100067174A (ko) 2008-12-11 2010-06-21 한국전자통신연구원 음성 인식을 이용한 메타데이터 검색기, 검색 방법, iptv 수신 장치
KR20120034378A (ko) 2010-10-01 2012-04-12 엔에이치엔(주) 사운드 인식을 통한 광고 정보 제공 시스템 및 방법
US9189730B1 (en) * 2012-09-20 2015-11-17 Brain Corporation Modulated stochasticity spiking neuron network controller apparatus and methods
US9767419B2 (en) * 2014-01-24 2017-09-19 Microsoft Technology Licensing, Llc Crowdsourcing system with community learning
US10102480B2 (en) * 2014-06-30 2018-10-16 Amazon Technologies, Inc. Machine learning service
CN106462801A (zh) * 2014-10-07 2017-02-22 谷歌公司 在分区训练数据上训练神经网络
CN106462802B (zh) * 2014-11-14 2019-08-06 谷歌有限责任公司 生成映像的自然语言描述
US11080587B2 (en) * 2015-02-06 2021-08-03 Deepmind Technologies Limited Recurrent neural networks for data item generation
US10373054B2 (en) * 2015-04-19 2019-08-06 International Business Machines Corporation Annealed dropout training of neural networks
US10515307B2 (en) * 2015-06-05 2019-12-24 Google Llc Compressed recurrent neural network models
US9652712B2 (en) * 2015-07-27 2017-05-16 Google Inc. Analyzing health events using recurrent neural networks
US11151446B2 (en) * 2015-10-28 2021-10-19 Google Llc Stream-based accelerator processing of computational graphs

Similar Documents

Publication Publication Date Title
JP2020512639A5 (ja)
KR102107709B1 (ko) 공간 트랜스포머 모듈들
US11790209B2 (en) Recurrent neural networks for data item generation
KR102302609B1 (ko) 신경망 아키텍처 최적화
KR102532658B1 (ko) 신경 아키텍처 검색
US11449684B2 (en) Contrastive pre-training for language tasks
JP6790286B2 (ja) 強化学習を用いたデバイス配置最適化
JP7325414B2 (ja) 第1のニューラルネットワークモデルと第2のニューラルネットワークモデルとの訓練
CN106471526B (zh) 用于处理图像的方法和系统
CN110443351B (zh) 生成映像的自然语言描述
WO2020253466A1 (zh) 一种用户界面的测试用例生成方法及装置
US10984319B2 (en) Neural architecture search
CN111758105A (zh) 学习数据增强策略
JP2019200551A5 (ja)
JP2019511033A5 (ja)
JP2019535084A (ja) 分離可能な畳み込み層を含む画像処理ニューラルネットワーク
CN107851443A (zh) 语音活动检测
WO2017200597A1 (en) Progressive neural networks
CA2941352A1 (en) Neural network and method of neural network training
JP2019511033A (ja) ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成
RU2017101818A (ru) Искусственные транзакции между концевыми точками связи
TWI655587B (zh) 神經網路及神經網路訓練的方法
EP3292493A1 (en) Neural network for processing graph data
US11727265B2 (en) Methods and apparatus to provide machine programmed creative support to a user
US10748041B1 (en) Image processing with recurrent attention