JP2020512639A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2020512639A5 JP2020512639A5 JP2019552038A JP2019552038A JP2020512639A5 JP 2020512639 A5 JP2020512639 A5 JP 2020512639A5 JP 2019552038 A JP2019552038 A JP 2019552038A JP 2019552038 A JP2019552038 A JP 2019552038A JP 2020512639 A5 JP2020512639 A5 JP 2020512639A5
- Authority
- JP
- Japan
- Prior art keywords
- sequence
- embedding
- embeddings
- operations
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 claims 16
- 230000001537 neural Effects 0.000 claims 16
- 230000000306 recurrent Effects 0.000 claims 15
- 238000000034 method Methods 0.000 claims 11
- 230000002787 reinforcement Effects 0.000 claims 4
- 230000001808 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 238000005070 sampling Methods 0.000 claims 1
Claims (20)
- コンピュータ実装方法であって、
複数のハードウェアデバイス上での分散処理のために配置されるべき機械学習モデルを指定するデータを受け取るステップと、
前記機械学習モデルを指定する前記データから、オペレーション埋込みのシーケンスを生成するステップであって、前記シーケンスでの各オペレーション埋込みが、前記機械学習モデルの前記分散処理を行うことの一部である1つまたは複数のそれぞれのオペレーションを特徴づける、ステップと、
配置リカレントニューラルネットワークの複数のネットワークパラメータの第1の値に従って、前記配置リカレントニューラルネットワークを使用して、オペレーション埋込みの前記シーケンスを処理するステップであって、
前記配置リカレントニューラルネットワークが、前記複数のデバイスにわたる前記シーケンスでの前記オペレーション埋込みによって特徴づけられた前記オペレーションの配置を定義するネットワーク出力を生成するために、前記第1の値に従ってオペレーション埋込みの前記シーケンスを処理するように構成される、ステップと、
前記ネットワーク出力によって定義された前記配置に従って前記複数のデバイスに前記オペレーションを配置することによって、前記複数のハードウェアデバイスによる処理のために前記機械学習モデルをスケジュールするステップと
を含む、方法。 - 前記オペレーション埋込みによって特徴づけられた前記オペレーションが、前記機械学習モデルを訓練することの一部であるオペレーションである、請求項1に記載の方法。
- 前記オペレーション埋込みによって特徴づけられた前記オペレーションが、前記機械学習モデルを使用して推論を行うことの一部であるオペレーションである、請求項1に記載の方法。
- 前記機械学習モデルを指定する前記データが、オペレーションを表す頂点と、前記オペレーション間のデータ通信を表すエッジとを有する計算グラフを表すデータである、請求項1に記載の方法。
- オペレーション埋込みの前記シーケンスを生成するステップが、
前記計算グラフ中の頂点によって表される前記オペレーションの2つ以上が、同じデバイス上に併置されるべきであることを決定するステップと、
それに応じて、前記2つ以上のオペレーションを特徴づける単一のオペレーション埋込みを生成するステップと
を含む、請求項4に記載の方法。 - 特定のオペレーションを特徴づけるオペレーション埋込みを生成するステップが、
前記特定のオペレーションのオペレーションタイプのタイプ埋込みを生成するステップと、
前記特定のオペレーションによって生成される出力のサイズを特徴づける出力サイズ埋込みを生成するステップと、
入力を提供し、前記特定のオペレーションによって生成された出力を受け取るオペレーションを識別する隣接性埋込みを生成するステップと、
前記特定のオペレーションを特徴づける前記オペレーション埋込みを生成するために、前記タイプ埋込み、前記出力サイズ埋込み、および前記隣接性埋込みを結合するステップと
を含む、請求項1に記載の方法。 - 前記配置リカレントニューラルネットワークが、前記シーケンスでの前記オペレーション埋込みの各々に対して、前記複数のデバイスの各々に対するそれぞれのスコアを含むスコアのセットを生成するように構成され、
オペレーション埋込みの前記シーケンスを処理するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットを使用して前記オペレーションの各々に対してデバイスを選択するステップを含む、
請求項1に記載の方法。 - 前記オペレーションの各々に対して前記デバイスを選択するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットに従って、最も高いスコアを有する前記デバイスを選択するステップを含む、請求項7に記載の方法。
- 前記オペレーションの各々に対して前記デバイスを選択するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットによって定義された確率に従って、前記複数のデバイスからデバイスをサンプリングするステップを含む、請求項7に記載の方法。
- 前記配置リカレントニューラルネットワークが、
前記オペレーション埋込みの各々に対してそれぞれのエンコーダ隠れ状態を生成するために、オペレーション埋込みの前記シーケンスを処理するように構成されたエンコーダリカレントニューラルネットワークと、
前記オペレーション埋込みの各々に対して、
デコーダ入力を受け取ることと、
前記オペレーション埋込みのためのスコアの前記セットを生成するために、前記デコーダ入力および前記エンコーダ隠れ状態を処理することと
を行うように構成された、デコーダニューラルネットワークと
を備える、請求項7に記載の方法。 - 前記シーケンスでの第1のオペレーション埋込み後の前記オペレーション埋込みの各々に対する前記デコーダ入力が、前記シーケンスでの先行するオペレーション埋込みによって表される前記1つまたは複数のオペレーションに選択されるデバイスを識別する、請求項10に記載の方法。
- 前記ネットワークパラメータの初期値から、前記ネットワークパラメータの前記第1の値を決定するステップであって、
前記複数のデバイスにわたる前記オペレーションの1つまたは複数の配置を選択するために、配置リカレントニューラルネットワークの複数のネットワークパラメータの現在の値に従って、前記配置リカレントニューラルネットワークを使用して、オペレーション埋込みの現在のシーケンスを処理することと、
各選択された配置に対して、
前記配置に従って前記複数のデバイスにわたる前記オペレーションで前記機械学習モデルの前記処理を行い、
前記処理が完了するために必要な時間を決定することと、
前記選択された配置の各々に対して前記処理が完了するために必要な前記時間から導出される報酬を使用する強化学習技法を使用して前記複数のネットワークのパラメータの前記現在の値を調整することと
を繰り返し行うことによって、前記ネットワークパラメータの前記第1の値を決定するステップ
をさらに含む、請求項1に記載の方法。 - 前記強化学習技法がREINFORCE技法である、請求項12に記載の方法。
- 前記強化学習技法が、前記必要な時間の移動平均であるベースラインを含む、請求項12に記載の方法。
- 前記パラメータの前記現在の値を調整するステップが、前記強化学習技法の一部として前記現在のシーケンスでの前記オペレーション埋込みを調整することをさらに含む、請求項12に記載の方法。
- 1つまたは複数のコンピュータと、
前記1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、
複数のハードウェアデバイス上での分散処理のために配置されるべき機械学習モデルを指定するデータを受け取るステップと、
前記機械学習モデルを指定する前記データから、オペレーション埋込みのシーケンスを生成するステップであって、前記シーケンスでの各オペレーション埋込みが、前記機械学習モデルの前記分散処理を行うことの一部である1つまたは複数のそれぞれのオペレーションを特徴づける、ステップと、
配置リカレントニューラルネットワークの複数のネットワークパラメータの第1の値に従って、前記配置リカレントニューラルネットワークを使用して、オペレーション埋込みの前記シーケンスを処理するステップであって、
前記配置リカレントニューラルネットワークが、前記複数のデバイスにわたる前記シーケンスでの前記オペレーション埋込みによって特徴づけられた前記オペレーションの配置を定義するネットワーク出力を生成するために、前記第1の値に従ってオペレーション埋込みの前記シーケンスを処理するように構成される、ステップと、
前記ネットワーク出力によって定義された前記配置に従って前記複数のデバイスに前記オペレーションを配置することによって、前記複数のハードウェアデバイスによる処理のために前記機械学習モデルをスケジュールするステップと
を行わせる命令を記憶した1つまたは複数のストレージデバイスと
を備える、システム。 - 1つまたは複数のコンピュータによって実行されると、前記1つまたは複数のコンピュータに、
複数のハードウェアデバイス上での分散処理のために配置されるべき機械学習モデルを指定するデータを受け取るステップと、
前記機械学習モデルを指定する前記データから、オペレーション埋込みのシーケンスを生成するステップであって、前記シーケンスでの各オペレーション埋込みが、前記機械学習モデルの前記分散処理を行うことの一部である1つまたは複数のそれぞれのオペレーションを特徴づける、ステップと、
配置リカレントニューラルネットワークの複数のネットワークパラメータの第1の値に従って、前記配置リカレントニューラルネットワークを使用して、オペレーション埋込みの前記シーケンスを処理するステップであって、
前記配置リカレントニューラルネットワークが、前記複数のデバイスにわたる前記シーケンスでの前記オペレーション埋込みによって特徴づけられた前記オペレーションの配置を定義するネットワーク出力を生成するために、前記第1の値に従ってオペレーション埋込みの前記シーケンスを処理するように構成される、ステップと、
前記ネットワーク出力によって定義された前記配置に従って前記複数のデバイスに前記オペレーションを配置することによって、前記複数のハードウェアデバイスによる処理のために前記機械学習モデルをスケジュールするステップと
を行わせる命令を記憶した1つまたは複数のコンピュータ記憶媒体。 - 特定のオペレーションを特徴づけるオペレーション埋込みを生成するステップが、
前記特定のオペレーションのオペレーションタイプのタイプ埋込みを生成するステップと、
前記特定のオペレーションによって生成される出力のサイズを特徴づける出力サイズ埋込みを生成するステップと、
入力を提供し、前記特定のオペレーションによって生成された出力を受け取るオペレーションを識別する隣接性埋込みを生成するステップと、
前記特定のオペレーションを特徴づける前記オペレーション埋込みを生成するために、前記タイプ埋込み、前記出力サイズ埋込み、および前記隣接性埋込みを結合するステップと
を含む、請求項17に記載の1つまたは複数のコンピュータ記憶媒体。 - 前記配置リカレントニューラルネットワークが、前記シーケンスでの前記オペレーション埋込みの各々に対して、前記複数のデバイスの各々に対するそれぞれのスコアを含むスコアのセットを生成するように構成され、
オペレーション埋込みの前記シーケンスを処理するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットを使用して前記オペレーションの各々に対してデバイスを選択するステップを含む、
請求項17に記載の1つまたは複数のコンピュータ記憶媒体。 - 前記オペレーションの各々に対して前記デバイスを選択するステップが、前記オペレーションを特徴づける前記オペレーション埋込みのためのスコアの前記セットに従って、最も高いスコアを有する前記デバイスを選択するステップを含む、請求項19に記載の1つまたは複数のコンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762476618P | 2017-03-24 | 2017-03-24 | |
US62/476,618 | 2017-03-24 | ||
PCT/US2018/024155 WO2018175972A1 (en) | 2017-03-24 | 2018-03-23 | Device placement optimization with reinforcement learning |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020512639A JP2020512639A (ja) | 2020-04-23 |
JP2020512639A5 true JP2020512639A5 (ja) | 2020-07-27 |
JP6790286B2 JP6790286B2 (ja) | 2020-11-25 |
Family
ID=61913686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019552038A Active JP6790286B2 (ja) | 2017-03-24 | 2018-03-23 | 強化学習を用いたデバイス配置最適化 |
Country Status (6)
Country | Link |
---|---|
US (3) | US10692003B2 (ja) |
EP (1) | EP3559868A1 (ja) |
JP (1) | JP6790286B2 (ja) |
KR (1) | KR102208989B1 (ja) |
CN (2) | CN110268422B (ja) |
WO (1) | WO2018175972A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11556520B2 (en) | 2017-11-13 | 2023-01-17 | Lendingclub Corporation | Techniques for automatically addressing anomalous behavior |
US11354301B2 (en) | 2017-11-13 | 2022-06-07 | LendingClub Bank, National Association | Multi-system operation audit log |
WO2020117991A1 (en) * | 2018-12-04 | 2020-06-11 | Google Llc | Generating integrated circuit floorplans using neural networks |
JP7050023B2 (ja) * | 2019-03-22 | 2022-04-07 | Kddi株式会社 | ネットワーク障害復旧システム、コンピュータプログラム及びネットワーク障害復旧方法 |
KR102371927B1 (ko) * | 2019-10-17 | 2022-03-11 | (주)유밥 | 학습 콘텐츠 추천 방법 및 장치 |
KR102272501B1 (ko) | 2020-04-24 | 2021-07-01 | 연세대학교 산학협력단 | 분산 강화 학습 장치 및 방법 |
US11288097B2 (en) | 2020-06-12 | 2022-03-29 | Disney Enterprises, Inc. | Automated hardware resource optimization |
CN111753973A (zh) * | 2020-06-22 | 2020-10-09 | 深圳鲲云信息科技有限公司 | 一种神经网络芯片的优化方法、系统、设备和存储介质 |
US20200327392A1 (en) * | 2020-06-26 | 2020-10-15 | Intel Corporation | Methods, systems, articles of manufacture, and apparatus to optimize layers of a machine learning model for a target hardware platform |
US20220083824A1 (en) * | 2020-09-11 | 2022-03-17 | Actapio, Inc. | Execution control apparatus, execution control method, and a non-transitory computer-readable storage medium |
KR102257028B1 (ko) * | 2020-10-06 | 2021-05-27 | 주식회사 딥이티 | 컴퓨팅 플랫폼 기반의 적응형 딥러닝 작업 할당 장치 및 방법 |
KR20220045800A (ko) * | 2020-10-06 | 2022-04-13 | 삼성전자주식회사 | 인공지능 모델을 분산 처리하는 시스템 및 그 동작 방법 |
JP2023020264A (ja) * | 2021-07-30 | 2023-02-09 | 株式会社Screenホールディングス | スケジュール作成方法、スケジュール作成装置、基板処理装置、基板処理システム、記録媒体、及びスケジュール作成プログラム |
KR102573644B1 (ko) * | 2021-08-24 | 2023-09-01 | 주식회사 에너자이 | 실행 엔진 최적화 방법, 실행 엔진 최적화 장치, 및 실행 엔진 최적화 시스템 |
US11509836B1 (en) | 2021-12-29 | 2022-11-22 | Insight Direct Usa, Inc. | Dynamically configured processing of a region of interest dependent upon published video data selected by a runtime configuration file |
US11704891B1 (en) | 2021-12-29 | 2023-07-18 | Insight Direct Usa, Inc. | Dynamically configured extraction, preprocessing, and publishing of a region of interest that is a subset of streaming video data |
WO2023163453A1 (ko) * | 2022-02-23 | 2023-08-31 | 주식회사 에너자이 | 임베디드 장치에서 실행될 신경망 모델 최적화 방법, 신경망 모델 최적화 장치, 및 신경망 모델 최적화 시스템 |
WO2023243896A1 (ko) * | 2022-06-17 | 2023-12-21 | 삼성전자 주식회사 | 인공신경망의 추론 분산 비율 결정 전자 장치 및 그 동작 방법 |
US11778167B1 (en) | 2022-07-26 | 2023-10-03 | Insight Direct Usa, Inc. | Method and system for preprocessing optimization of streaming video data |
WO2024053910A1 (ko) * | 2022-09-08 | 2024-03-14 | 삼성전자주식회사 | 기계학습 모델에 적합한 가속기를 선택하는 장치 및 방법 |
KR102603130B1 (ko) | 2022-12-27 | 2023-11-17 | 주식회사 애자일소다 | 강화학습 기반의 면적 및 매크로 배치 최적화를 위한 설계 시스템 및 방법 |
KR102634706B1 (ko) | 2023-05-31 | 2024-02-13 | 주식회사 애자일소다 | 데드 스페이스의 최소화를 위한 집적회로 설계 장치 및 방법 |
KR102645072B1 (ko) | 2023-05-31 | 2024-03-08 | 주식회사 애자일소다 | 매크로의 핀 방향 최적화를 위한 후처리 장치 및 방법 |
CN117058491B (zh) * | 2023-10-12 | 2024-04-02 | 深圳大学 | 基于递归神经网络的结构化网格布局生成方法及设备 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05108595A (ja) * | 1991-10-17 | 1993-04-30 | Hitachi Ltd | ニユーラルネツトワークの分散学習装置 |
KR100676863B1 (ko) | 2004-08-31 | 2007-02-02 | 주식회사 코난테크놀로지 | 음악 검색 서비스 제공 시스템 및 방법 |
US7870556B2 (en) * | 2006-05-16 | 2011-01-11 | Ab Initio Technology Llc | Managing computing resources in graph-based computations |
KR20100067174A (ko) | 2008-12-11 | 2010-06-21 | 한국전자통신연구원 | 음성 인식을 이용한 메타데이터 검색기, 검색 방법, iptv 수신 장치 |
KR20120034378A (ko) | 2010-10-01 | 2012-04-12 | 엔에이치엔(주) | 사운드 인식을 통한 광고 정보 제공 시스템 및 방법 |
US9189730B1 (en) * | 2012-09-20 | 2015-11-17 | Brain Corporation | Modulated stochasticity spiking neuron network controller apparatus and methods |
US9767419B2 (en) * | 2014-01-24 | 2017-09-19 | Microsoft Technology Licensing, Llc | Crowdsourcing system with community learning |
US10102480B2 (en) * | 2014-06-30 | 2018-10-16 | Amazon Technologies, Inc. | Machine learning service |
CN106462801A (zh) * | 2014-10-07 | 2017-02-22 | 谷歌公司 | 在分区训练数据上训练神经网络 |
CN106462802B (zh) * | 2014-11-14 | 2019-08-06 | 谷歌有限责任公司 | 生成映像的自然语言描述 |
US11080587B2 (en) * | 2015-02-06 | 2021-08-03 | Deepmind Technologies Limited | Recurrent neural networks for data item generation |
US10373054B2 (en) * | 2015-04-19 | 2019-08-06 | International Business Machines Corporation | Annealed dropout training of neural networks |
US10515307B2 (en) * | 2015-06-05 | 2019-12-24 | Google Llc | Compressed recurrent neural network models |
US9652712B2 (en) * | 2015-07-27 | 2017-05-16 | Google Inc. | Analyzing health events using recurrent neural networks |
US11151446B2 (en) * | 2015-10-28 | 2021-10-19 | Google Llc | Stream-based accelerator processing of computational graphs |
-
2018
- 2018-03-23 EP EP18716863.8A patent/EP3559868A1/en active Pending
- 2018-03-23 CN CN201880011282.1A patent/CN110268422B/zh active Active
- 2018-03-23 KR KR1020197026115A patent/KR102208989B1/ko active IP Right Grant
- 2018-03-23 CN CN202311517807.8A patent/CN117648971A/zh active Pending
- 2018-03-23 JP JP2019552038A patent/JP6790286B2/ja active Active
- 2018-03-23 WO PCT/US2018/024155 patent/WO2018175972A1/en unknown
-
2019
- 2019-06-19 US US16/445,330 patent/US10692003B2/en active Active
-
2020
- 2020-05-20 US US16/878,720 patent/US11803747B2/en active Active
-
2023
- 2023-10-03 US US18/376,362 patent/US20240062062A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020512639A5 (ja) | ||
KR102107709B1 (ko) | 공간 트랜스포머 모듈들 | |
US11790209B2 (en) | Recurrent neural networks for data item generation | |
KR102302609B1 (ko) | 신경망 아키텍처 최적화 | |
KR102532658B1 (ko) | 신경 아키텍처 검색 | |
US11449684B2 (en) | Contrastive pre-training for language tasks | |
JP6790286B2 (ja) | 強化学習を用いたデバイス配置最適化 | |
JP7325414B2 (ja) | 第1のニューラルネットワークモデルと第2のニューラルネットワークモデルとの訓練 | |
CN106471526B (zh) | 用于处理图像的方法和系统 | |
CN110443351B (zh) | 生成映像的自然语言描述 | |
WO2020253466A1 (zh) | 一种用户界面的测试用例生成方法及装置 | |
US10984319B2 (en) | Neural architecture search | |
CN111758105A (zh) | 学习数据增强策略 | |
JP2019200551A5 (ja) | ||
JP2019511033A5 (ja) | ||
JP2019535084A (ja) | 分離可能な畳み込み層を含む画像処理ニューラルネットワーク | |
CN107851443A (zh) | 语音活动检测 | |
WO2017200597A1 (en) | Progressive neural networks | |
CA2941352A1 (en) | Neural network and method of neural network training | |
JP2019511033A (ja) | ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成 | |
RU2017101818A (ru) | Искусственные транзакции между концевыми точками связи | |
TWI655587B (zh) | 神經網路及神經網路訓練的方法 | |
EP3292493A1 (en) | Neural network for processing graph data | |
US11727265B2 (en) | Methods and apparatus to provide machine programmed creative support to a user | |
US10748041B1 (en) | Image processing with recurrent attention |