JP7439125B2 - 保護されたデータに対する分散型プライバシー保全コンピューティング - Google Patents
保護されたデータに対する分散型プライバシー保全コンピューティング Download PDFInfo
- Publication number
- JP7439125B2 JP7439125B2 JP2021557379A JP2021557379A JP7439125B2 JP 7439125 B2 JP7439125 B2 JP 7439125B2 JP 2021557379 A JP2021557379 A JP 2021557379A JP 2021557379 A JP2021557379 A JP 2021557379A JP 7439125 B2 JP7439125 B2 JP 7439125B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- algorithm
- asset
- data asset
- validation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004422 calculation algorithm Methods 0.000 claims description 738
- 238000000034 method Methods 0.000 claims description 351
- 238000010200 validation analysis Methods 0.000 claims description 214
- 238000012549 training Methods 0.000 claims description 203
- 238000012545 processing Methods 0.000 claims description 177
- 238000013500 data storage Methods 0.000 claims description 112
- 239000002775 capsule Substances 0.000 claims description 111
- 238000012360 testing method Methods 0.000 claims description 77
- 238000005457 optimization Methods 0.000 claims description 59
- 238000003860 storage Methods 0.000 claims description 54
- 230000009466 transformation Effects 0.000 claims description 27
- 230000009471 action Effects 0.000 claims description 13
- 238000009826 distribution Methods 0.000 claims description 10
- 238000000844 transformation Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 description 142
- 238000013473 artificial intelligence Methods 0.000 description 64
- 238000011161 development Methods 0.000 description 45
- 230000006870 function Effects 0.000 description 30
- 238000012552 review Methods 0.000 description 22
- 238000004590 computer program Methods 0.000 description 21
- 230000000694 effects Effects 0.000 description 19
- 230000015654 memory Effects 0.000 description 19
- 238000012795 verification Methods 0.000 description 19
- 230000001105 regulatory effect Effects 0.000 description 18
- 230000036541 health Effects 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 14
- 238000002360 preparation method Methods 0.000 description 14
- 238000013501 data transformation Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 9
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 201000010099 disease Diseases 0.000 description 8
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 8
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000011160 research Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 239000003814 drug Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000000638 solvent extraction Methods 0.000 description 6
- 230000004931 aggregating effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008520 organization Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 206010006187 Breast cancer Diseases 0.000 description 2
- 208000026310 Breast neoplasm Diseases 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000013523 data management Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000004393 prognosis Methods 0.000 description 2
- 238000000275 quality assurance Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000035899 viability Effects 0.000 description 2
- 208000010392 Bone Fractures Diseases 0.000 description 1
- 206010017993 Gastrointestinal neoplasms Diseases 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000003339 best practice Methods 0.000 description 1
- 239000000090 biomarker Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000003211 malignant effect Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 244000005700 microbiome Species 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001338 necrotic effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/25—Integrating or interfacing systems involving database management systems
- G06F16/256—Integrating or interfacing systems involving database management systems in federated or virtual databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/52—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems during program execution, e.g. stack integrity ; Preventing unwanted data erasure; Buffer overflow
- G06F21/53—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems during program execution, e.g. stack integrity ; Preventing unwanted data erasure; Buffer overflow by executing in a restricted environment, e.g. sandbox or secure virtual machine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/602—Providing cryptographic facilities or services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/71—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information
- G06F21/74—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer to assure secure computing or processing of information operating in dual or compartmented mode, i.e. at least one secure mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Bioethics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Storage Device Security (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本出願は、2019年12月16日に出願された、「DISTRIBUTED PRIVACY-PRESERVING COMPUTING ON PROTECTED DATA」と題する米国仮出願第62/948,556号および2019年3月26日に出願された「FEDERATED MACHINE LEARNING TECHNIQUES FOR HIGHLY CURATED HEALTH-CARE DATA SETS」と題する米国仮出願第62/824,183号の優先権および利益を主張するものであり、その全内容はあらゆる目的で参照により本明細書に組み入れられる。
本発明は、プライバシー保全コンピューティングに関し、特に、プライバシー保護された整合化データの複数のソースに対する分散解析を利用して人工知能アプリケーションおよび/またはアルゴリズムを開発するための技術(例えば、システム、方法、1つまたは複数のプロセッサによって実行可能なコードまたは命令を格納するコンピュータプログラム製品)に関する。本発明は、プライバシー保護された整合化された臨床データおよび健康データを使用して規制された医療用途のための人工知能アルゴリズムを開発するのに特に有効である。
クラウド計算、データ並列クラスタ計算、および高性能計算を含む最新の計算パラダイムは、広く利用可能な様々な機械学習および深層学習アルゴリズムアーキテクチャと組み合わされて、基礎となるアルゴリズムを適切に最適化するのに十分なデータが利用可能であれば、ほぼあらゆる産業の問題を解決するための膨大な数の人工知能(artificial intelligence(AI))アプリケーションを開発することができる環境を作り出している。データへのアクセスがAIアプリケーションの開発に対する主要な障壁であることは今や明らかである。実際、多くの産業では、ロバストで一般化可能なAIを作成するために、様々なソースからのデータを使用する必要がある。課題は、一般に、データの所有者が、データを共有することができないか、または共有しないか、またはデータが自分の管理を離れることを許容しないことである。データは資産であり、機密性の高いプライベートデータおよび/または個人データを含むことが多く、共有を困難または不可能にする方法で規制することができるため、これは無理もないことである。これらの課題は、医療AIの開発において克服することが特に困難である。
1つまたは複数のコンピュータのシステムを、動作に際してシステムに特定の操作または動作を行わせるソフトウェア、ファームウェア、ハードウェア、またはそれらの組み合わせがシステムにインストールされていることによって、それらの動作を行うように構成することができる。1つまたは複数のコンピュータプログラムを、データ処理装置によって実行されると、装置に特定の操作または動作を行わせる命令を含むことによって、それらの動作を行うように構成することができる。1つの一般的な局面は、データ処理システムにおいて、アルゴリズムおよびアルゴリズムと関連付けられた入力データ要件を受け取る工程であって、入力データ要件が、データ資産がアルゴリズムで動作するための最適化および/または検証選択基準を含む、受け取る工程を含む方法を含む。この方法はまた、データ処理システムによって、データ資産を、データ資産についての最適化および/または検証選択基準に基づいてデータホストから利用可能であるものとして識別する工程も含む。この方法はまた、データ処理システムによって、データホストのインフラストラクチャ内のデータストレージ構造内のデータ資産をキュレートする工程も含む。この方法はまた、データ処理システムによって、アルゴリズムが処理するためのデータストレージ構造内のデータ資産を準備する工程も含む。この方法はまた、データ処理システムによって、アルゴリズムをセキュアなカプセル計算フレームワークに統合する工程であって、セキュアなカプセル計算フレームワークがアルゴリズムを、データストレージ構造内のデータ資産に、データ資産およびアルゴリズムのプライバシーを保全するセキュアな方法で提供する、統合する工程も含む。この方法はまた、データ処理システムによって、データ資産をアルゴリズムを通して動作させる工程も含む。この局面の他の態様は、方法の動作を行うように各々構成された、対応するコンピュータシステム、装置、および1つまたは複数のコンピュータ記憶デバイスに記録されたコンピュータプログラムを含む。
以下の工程を含む方法:
データ処理システムにおいて、アルゴリズムおよび前記アルゴリズムと関連付けられた入力データ要件を受け取る工程であって、前記入力データ要件が、データ資産が前記アルゴリズムで動作するための最適化および/または検証選択基準を含む、受け取る工程;
前記データ処理システムによって、前記データ資産を、前記データ資産についての前記最適化および/または検証選択基準に基づいて、データホストから利用可能であるものとして識別する工程;
前記データ処理システムによって、前記データホストのインフラストラクチャ内のデータストレージ構造内の前記データ資産をキュレートする工程;
前記データ処理システムによって、前記アルゴリズムが処理するための前記データストレージ構造内の前記データ資産を準備する工程;
前記データ処理システムによって、前記アルゴリズムをセキュアなカプセル計算フレームワークに統合する工程であって、前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを前記データストレージ構造内の前記データ資産に、前記データ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で提供する、統合する工程;ならびに
前記データ処理システムによって、前記データ資産を前記アルゴリズムを通して動作させる工程。
[本発明1002]
前記アルゴリズムおよび前記入力データ要件が、前記データホストとは異なるエンティティであるアルゴリズム開発者から受け取られ、前記最適化および/または検証選択基準が、前記データ資産が前記アルゴリズムで動作するための特性、フォーマット、および要件を定義する、本発明1001の方法。
[本発明1003]
前記データ資産の前記特性および前記要件が、
(i)前記アルゴリズムの環境、(ii)前記入力データ内の例の配分、(iii)前記入力データを生成するデバイスのパラメータおよびタイプ、(iv)分散対バイアス、(v)前記アルゴリズムによって実装されたタスク、または(vi)それらの任意の組み合わせ
に基づいて定義される、本発明1002の方法。
[本発明1004]
前記識別する工程が、前記データ資産内の個人に関するプライベート情報を伏せたままで、前記データ資産内のグループのパターンを記述することによって、前記データ資産内の情報を共有するための差分プライバシーを使用して行われ、
前記キュレートする工程が、複数のデータストレージ構造の中から前記データストレージ構造を選択することと、前記データホストの前記インフラストラクチャ内に前記データストレージ構造をプロビジョニングすることとを含み、
前記データストレージ構造の前記選択が、前記アルゴリズムのタイプ、前記データ資産内のデータのタイプ、前記データ処理システムのシステム要件、またはそれらの組み合わせに基づくものである、
本発明1002の方法。
[本発明1005]
前記データ処理システムによって、前記データホストを迎え入れる工程をさらに含み、
前記迎え入れる工程が、前記アルゴリズムでの前記データ資産の使用がデータプライバシー要件に準拠したものであることを確認することを含む、
本発明1001、1002、または1003の方法。
[本発明1006]
前記データ資産を準備する工程が、前記データ資産に1つもしくは複数の変換を適用すること、前記データ資産に注釈を付けること、前記データ資産を整合化すること、またはそれらの組み合わせを含む、本発明1001~1005のいずれかの方法。
[本発明1007]
前記データ資産を前記アルゴリズムを通して前記動作させる工程が、
前記モデルの複数のインスタンスを作成することと、前記データ資産を、訓練データセットと1つまたは複数の試験データセットとに分割することと、前記モデルの前記複数のインスタンスを前記訓練データセットで訓練することと、前記モデルの前記複数のインスタンスの各々の前記訓練からの結果を完全連合モデルに統合することと、前記1つまたは複数の試験データセットを前記完全連合モデルを通して動作させることと、前記1つまたは複数の試験データセットの前記動作に基づいて前記完全連合モデルの性能を計算することとを含む、訓練ワークフロー
を実行することを含む、本発明1001~1006のいずれかの方法。
[本発明1008]
前記データ資産を前記アルゴリズムを通して前記動作させる工程が、
前記データ資産を1つまたは複数の検証データセットにおいて分割することと、前記1つまたは複数の検証データセットを前記アルゴリズムを通して動作させることと、前記1つまたは複数の検証データセットの前記動作に基づいて前記アルゴリズムの性能を計算することとを含む、検証ワークフロー
を実行することを含む、本発明1001~1006のいずれかの方法。
[本発明1009]
前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを動作させるのに必要な暗号化コードを受け入れるように構成された計算インフラストラクチャ内にプロビジョニングされ、
前記計算インフラストラクチャを前記プロビジョニングすることが、前記計算インフラストラクチャ上で前記セキュアなカプセル計算フレームワークをインスタンス化することと、前記アルゴリズム開発者によって、前記暗号化コードを前記セキュアなカプセル計算フレームワークの内部に配置することと、前記セキュアなカプセル計算フレームワークがインスタンス化された後で、前記暗号化コードを復号することとを含む、
本発明1001~1008のいずれかの方法。
[本発明1010]
1つまたは複数のデータプロセッサと、
前記1つまたは複数のデータプロセッサ上で実行されると、前記1つまたは複数のデータプロセッサに、
アルゴリズムおよび前記アルゴリズムと関連付けられた入力データ要件を受け取る動作であって、前記入力データ要件が、データ資産が前記アルゴリズムで動作するための最適化および/または検証選択基準を含む、受け取る動作と、
前記データ資産を、前記データ資産についての前記最適化および/または検証選択基準に基づいてデータホストから利用可能であるものとして識別する動作と、
前記データ資産を、前記データホストのインフラストラクチャ内にあるデータストレージ構造内でキュレートする動作と、
前記アルゴリズムによって処理するための前記データストレージ構造内の前記データ資産を準備する動作と、
前記アルゴリズムをセキュアなカプセル計算フレームワークに統合する動作であって、前記セキュアなカプセル計算フレームワークが前記アルゴリズムを前記データストレージ構造内の前記データ資産に、前記データ資産および前記機械学習モデルのプライバシーを保全するセキュアな方法で提供する、統合する動作と、
前記データ資産を前記アルゴリズムを通して動作させる動作と
を含む動作を行わせる命令を含む、非一時的コンピュータ可読記憶媒体と
を含む、システム。
[本発明1011]
前記アルゴリズムおよび前記入力データ要件が、前記データホストとは異なるエンティティであるアルゴリズム開発者から受け取られ、前記最適化および/または検証選択基準が、データ資産が前記アルゴリズムで動作するための特性、フォーマット、および要件を定義する、本発明1010のシステム。
[本発明1012]
前記データ資産の前記特性および前記要件が、
(i)前記アルゴリズムの環境、(ii)前記入力データ内の例の配分、(iii)前記入力データを生成するデバイスのパラメータおよびタイプ、(iv)分散対バイアス、(v)前記アルゴリズムによって実装されたタスク、または(vi)それらの任意の組み合わせ
に基づいて定義される、本発明1011のシステム。
[本発明1013]
前記識別する動作が、前記データ資産内の個人に関するプライベート情報を伏せたままで、前記データ資産内のグループのパターンを記述することによって、前記データ資産内の情報を共有するための差分プライバシーを使用して行われ、
前記キュレートする動作が、複数のデータストレージ構造の中から前記データストレージ構造を選択することと、前記データホストの前記インフラストラクチャ内に前記データストレージ構造をプロビジョニングすることとを含み、
前記データストレージ構造の前記選択が、前記アルゴリズムのタイプ、前記データ資産内のデータのタイプ、前記システムの要件、またはそれらの組み合わせに基づくものである、
本発明1010のシステム。
[本発明1014]
前記動作が、前記データホストを迎え入れることをさらに含み、
前記迎え入れることが、前記アルゴリズムでの前記データ資産の使用がデータプライバシー要件に準拠したものであることを確認することを含む、
本発明1010、1011、または1012のシステム。
[本発明1015]
前記データ資産を準備する動作が、前記データ資産に1つもしくは複数の変換を適用すること、前記データ資産に注釈を付けること、前記データ資産を整合化すること、またはそれらの組み合わせを含む、本発明1010~1014のいずれかのシステム。
[本発明1016]
前記データ資産を前記アルゴリズムを通して前記動作させる動作が、
前記モデルの複数のインスタンスを作成することと、前記データ資産を、訓練データセットと1つまたは複数の試験データセットとに分割することと、前記モデルの前記複数のインスタンスを前記訓練データセットで訓練することと、前記モデルの前記複数のインスタンスの各々の前記訓練からの結果を完全連合モデルに統合することと、前記1つまたは複数の試験データセットを前記完全連合モデルによって動作させることと、前記1つまたは複数の試験データセットの前記動作に基づいて前記完全連合モデルの性能を計算することとを含む、訓練ワークフロー
を実行することを含む、本発明1010~1015のいずれかのシステム。
[本発明1017]
前記データ資産を前記アルゴリズムを通して前記動作させる動作が、
前記データ資産を1つまたは複数の検証データセットにおいて分割することと、前記1つまたは複数の検証データセットを前記アルゴリズムを通して動作させることと、前記1つまたは複数の検証データセットの前記動作に基づいて前記アルゴリズムの性能を計算することとを含む、検証ワークフロー
を実行することを含む、本発明1010~1015のいずれかのシステム。
[本発明1018]
前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを動作させるのに必要な暗号化コードを受け入れるように構成された計算インフラストラクチャ内にプロビジョニングされ、
前記計算インフラストラクチャを前記プロビジョニングすることが、前記計算インフラストラクチャ上で前記セキュアなカプセル計算フレームワークをインスタンス化することと、前記アルゴリズム開発者を通して、前記暗号化コードを前記セキュアなカプセル計算フレームワークの内部に配置することと、前記セキュアなカプセル計算フレームワークがインスタンス化された後で、前記暗号化コードを復号することとを含む、
本発明1010~1017のいずれかのシステム。
[本発明1019]
1つまたは複数のデータプロセッサに、
アルゴリズムおよび前記アルゴリズムと関連付けられた入力データ要件を受け取る動作であって、前記入力データ要件が、データ資産が前記アルゴリズムで動作するための最適化および/または検証選択基準を含む、受け取る動作と、
前記データ資産を、前記データ資産についての前記最適化および/または検証選択基準に基づいてデータホストから利用可能であるものとして識別する動作と、
前記データ資産を、前記データホストのインフラストラクチャ内にあるデータストレージ構造内でキュレートする動作と、
前記アルゴリズムによって処理するための前記データストレージ構造内の前記データ資産を準備する動作と、
前記アルゴリズムをセキュアなカプセル計算フレームワークに統合する動作であって、前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを、前記データストレージ構造内の前記データ資産に、前記データ資産および前記機械学習モデルのプライバシーを保全するセキュアな方法で提供する、統合する動作と、
前記データ資産を前記アルゴリズムを通して動作させる動作と
を含む動作を行わせるように構成された命令
を含む、非一時的機械可読記憶媒体において実体的に具体化された、コンピュータプログラム製品。
[本発明1020]
前記アルゴリズムおよび前記入力データ要件が、前記データホストとは異なるエンティティであるアルゴリズム開発者から受け取られ、前記最適化および/または検証選択基準が、データ資産が前記アルゴリズムで動作するための特性、フォーマット、および要件を定義する、本発明1019のコンピュータプログラム製品。
[本発明1021]
前記データ資産の前記特性および前記要件が、
(i)前記アルゴリズムの環境、(ii)前記入力データ内の例の配分、(iii)前記入力データを生成するデバイスのパラメータおよびタイプ、(iv)分散対バイアス、(v)前記アルゴリズムによって実装されたタスク、または(vi)それらの任意の組み合わせ
に基づいて定義される、本発明1020のコンピュータプログラム製品。
[本発明1022]
前記識別する動作が、前記データ資産内の個人に関するプライベート情報を伏せたままで、前記データ資産内のグループのパターンを記述することによって、前記データ資産内の情報を共有するための差分プライバシーを使用して行われ、
前記キュレートする動作が、複数のデータストレージ構造の中から前記データストレージ構造を選択することと、前記データホストの前記インフラストラクチャ内に前記データストレージ構造をプロビジョニングすることとを含み、
前記データストレージ構造の前記選択が、前記アルゴリズムのタイプ、前記データ資産内のデータのタイプ、前記システムの要件、またはそれらの組み合わせに基づくものである、
本発明1020のコンピュータプログラム製品。
[本発明1023]
前記動作が、前記データホストを迎え入れる動作をさらに含み、
前記迎え入れる動作が、前記アルゴリズムでの前記データ資産の使用がデータプライバシー要件に準拠したものであることを確認することを含む、
本発明1019、1020、または1021のコンピュータプログラム製品。
[本発明1024]
前記データ資産を前記アルゴリズムを通して前記動作させる動作が、
前記モデルの複数のインスタンスを作成することと、前記データ資産を、訓練データセットと1つまたは複数の試験データセットとに分割することと、前記モデルの前記複数のインスタンスを前記訓練データセットで訓練することと、前記モデルの前記複数のインスタンスの各々の前記訓練からの結果を完全連合モデルに統合することと、前記1つまたは複数の試験データセットを前記完全連合モデルを通して動作させることと、前記1つまたは複数の試験データセットの前記動作に基づいて前記完全連合モデルの性能を計算することとを含む、訓練ワークフロー
を実行することを含む、本発明1019~1023のいずれかのコンピュータプログラム製品。
[本発明1025]
前記データ資産を前記アルゴリズムを通して前記動作させる動作が、
前記データ資産を1つまたは複数の検証データセットにおいて分割することと、前記1つまたは複数の検証データセットを前記アルゴリズムを通して動作させることと、前記1つまたは複数の検証データセットの前記動作に基づいて前記アルゴリズムの性能を計算することとを含む、検証ワークフロー
を実行することを含む、本発明1019~1023のいずれかのコンピュータプログラム製品。
[本発明1026]
前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを動作させるのに必要な暗号化コードを受け入れるように構成された計算インフラストラクチャ内にプロビジョニングされ、
前記計算インフラストラクチャを前記プロビジョニングすることが、前記計算インフラストラクチャ上で前記セキュアなカプセル計算フレームワークをインスタンス化することと、前記アルゴリズム開発者によって、前記暗号化コードを前記セキュアなカプセル計算フレームワークの内部に配置することと、前記セキュアなカプセル計算フレームワークがインスタンス化された後で、前記暗号化コードを復号することとを含む、
本発明1019~1025のいずれかのコンピュータプログラム製品。
[本発明1027]
以下の工程を含む方法:
アルゴリズムの複数のインスタンスを識別する工程であって、前記アルゴリズムの各インスタンスが、1つまたは複数のセキュアなカプセル計算フレームワークに統合され、前記1つまたは複数のセキュアなカプセル計算フレームワークが、前記アルゴリズムの各インスタンスを、1つまたは複数のデータホストの1つまたは複数のデータストレージ構造内の訓練データ資産に、前記訓練データ資産および前記アルゴリズムの各インスタンスのプライバシーを保全するセキュアな方法で提供する、識別する工程;
データ処理システムによって、前記アルゴリズムの各インスタンスで連合訓練ワークフローを実行する工程であって、前記連合訓練ワークフローが、前記訓練データ資産を入力として取り込み、パラメータを使用して前記訓練データ資産の特徴をターゲット推論にマップし、損失関数または誤差関数を計算し、前記損失関数または前記誤差関数を最小化するために前記パラメータを学習されたパラメータに更新し、前記アルゴリズムの1つまたは複数の訓練されたインスタンスを出力する、実行する工程;
前記データ処理システムによって、前記アルゴリズムの訓練されたインスタンスごとの前記学習されたパラメータを、完全連合アルゴリズムに統合する工程であって、前記統合する工程が、前記学習されたパラメータを集約して、集約されたパラメータを取得することと、前記完全連合アルゴリズムの学習されたパラメータを前記集約されたパラメータで更新することとを含む、統合する工程;
前記データ処理システムによって、前記完全連合アルゴリズムで試験ワークフローを実行する工程であって、前記試験ワークフローが、試験データを入力として取り込み、前記更新された学習されたパラメータを使用して前記試験データ内のパターンを見つけ、推論を出力する、実行する工程;
前記データ処理システムによって、前記推論を提供する際の前記完全連合アルゴリズムの性能を計算する工程;
前記データ処理システムによって、前記完全連合アルゴリズムの前記性能がアルゴリズム終了基準を満たすかどうかを判定する工程;
前記完全連合アルゴリズムの前記性能が前記アルゴリズム終了基準を満たさない場合、前記データ処理システムによって、前記アルゴリズムの各インスタンスを前記完全連合アルゴリズムで置き換え、前記完全連合アルゴリズムの各インスタンスで前記連合訓練ワークフローを再実行する工程;ならびに
前記完全連合アルゴリズムの前記性能が前記アルゴリズム終了基準を満たす場合、前記データ処理システムによって、前記完全連合アルゴリズムの前記性能および前記集約されたパラメータを、前記アルゴリズムのアルゴリズム開発者に提供する工程。
[本発明1028]
前記アルゴリズムの前記複数のインスタンスを前記識別する工程が、
前記データ処理システムにおいて、前記アルゴリズムおよび前記アルゴリズムと関連付けられた入力データ要件を受け取ることであって、前記入力データ要件が、データ資産が前記アルゴリズムで動作するための最適化および/または検証選択基準を含む、受け取ることと、
前記データ処理システムによって、前記データ資産を、前記データ資産についての最適化および/または検証選択基準に基づいて前記1つまたは複数のデータホストから利用可能であるものとして識別することと、
前記データ処理システムによって、前記1つまたは複数のデータホストの各データホストのインフラストラクチャ内にあるデータストレージ構造内の前記データ資産をキュレートすることと、
前記データ資産の少なくとも一部を、前記1つまたは複数のデータホストの各データホストの前記インフラストラクチャ内にある前記データストレージ構造内の前記訓練データ資産に分割することと
を含む、本発明1027の方法。
[本発明1029]
前記アルゴリズムおよび前記入力データ要件が、前記1つまたは複数のデータホストとは異なるエンティティであるアルゴリズム開発者から受け取られ、前記最適化および/または検証選択基準が、データ資産が前記アルゴリズムで動作するための特性、フォーマット、および要件を定義する、本発明1028の方法。
[本発明1030]
前記連合訓練ワークフローが、訓練勾配を暗号化することをさらに含み、前記統合することが、前記訓練勾配を復号することを含む、本発明1027、1028、または1029の方法。
[本発明1031]
前記完全連合アルゴリズムの前記性能が前記アルゴリズム終了基準を満たす場合、前記データ処理システムによって、集約されたパラメータを前記アルゴリズムの各インスタンスに送る工程;ならびに
前記データ処理システムによって、前記アルゴリズムの各インスタンスで更新訓練ワークフローを実行する工程であって、前記更新訓練ワークフローが、前記学習されたパラメータを前記集約されたパラメータで更新し、前記アルゴリズムの1つまたは複数の更新および訓練されたインスタンスを出力する、実行する工程
をさらに含む、本発明1027、1028、1029、または1030の方法。
[本発明1032]
前記データ処理システムによって、残りの前記データ資産を、前記アルゴリズムの各インスタンスを通して動作させる工程をさらに含む、本発明1031の方法。
[本発明1033]
前記データ資産を前記アルゴリズムの各インスタンスを通して前記動作させる工程が、
前記データ資産の少なくとも一部を1つまたは複数の検証データセットにさらに分割することと、前記1つまたは複数の検証データセットを前記アルゴリズムの各インスタンスを通して動作させることと、前記1つまたは複数の検証データセットの前記動作に基づいて前記アルゴリズムの各インスタンスの性能を計算することとを含む、検証ワークフロー
を実行することを含む、本発明1031の方法。
[本発明1034]
1つまたは複数のデータプロセッサと、
前記1つまたは複数のデータプロセッサ上で実行されると、前記1つまたは複数のデータプロセッサに、
アルゴリズムの複数のインスタンスを識別する動作であって、前記アルゴリズムの各インスタンスが1つまたは複数のセキュアなカプセル計算フレームワークに統合され、前記1つまたは複数のセキュアなカプセル計算フレームワークが、前記アルゴリズムの各インスタンスを、1つまたは複数のデータホストの1つまたは複数のデータストレージ構造内の訓練データ資産に、前記訓練データ資産および前記アルゴリズムの各インスタンスのプライバシーを保全するセキュアな方法で提供する、識別する動作と、
前記アルゴリズムの各インスタンスで連合訓練ワークフローを実行する動作であって、前記連合訓練ワークフローが、前記訓練データ資産を入力として取り込み、パラメータを使用して前記訓練データ資産の特徴をターゲット推論にマップし、損失関数または誤差関数を計算し、前記損失関数または前記誤差関数を最小化するために前記パラメータを学習されたパラメータに更新し、前記アルゴリズムの1つまたは複数の訓練されたインスタンスを出力する、実行する動作と、
前記データ処理システムによって、前記アルゴリズムの訓練されたインスタンスごとの前記学習されたパラメータを、完全連合アルゴリズムに統合する動作であって、前記統合する動作が、前記学習されたパラメータを集約して、集約されたパラメータを取得することと、前記完全連合アルゴリズムの学習されたパラメータを前記集約されたパラメータで更新することとを含む、統合する動作と、
前記データ処理システムによって、前記完全連合アルゴリズムで試験ワークフローを実行する動作であって、前記試験ワークフローが、試験データを入力として取り込み、前記更新された学習されたパラメータを使用して前記試験データ内のパターンを見つけ、推論を出力する、実行する動作と、
前記データ処理システムによって、前記推論を提供する際の前記完全連合アルゴリズムの性能を計算する動作と、
前記データ処理システムによって、前記完全連合アルゴリズムの前記性能がアルゴリズム終了基準を満たすかどうかを判定する動作と、
前記完全連合アルゴリズムの前記性能が前記アルゴリズム終了基準を満たさない場合、前記データ処理システムによって、前記アルゴリズムの各インスタンスを前記完全連合アルゴリズムで置き換え、前記完全連合アルゴリズムの各インスタンスで前記連合訓練ワークフローを再実行する動作と、
前記完全連合アルゴリズムの前記性能が前記アルゴリズム終了基準を満たす場合、前記データ処理システムによって、前記完全連合アルゴリズムの前記性能および前記集約されたパラメータを、前記アルゴリズムのアルゴリズム開発者に提供する動作と
を含む動作を行わせる命令を含む、非一時的コンピュータ可読記憶媒体と
を含む、システム。
[本発明1035]
以下の工程を含む方法:
データ処理システムによって、データ資産の選択基準に基づいてデータホストから利用可能なデータ資産を識別する工程;
前記データ処理システムによって、前記データホストのインフラストラクチャ内にあるデータストレージ構造内の前記データ資産をキュレートする工程;
前記データ処理システムによって、データ変換のためのアルゴリズムを開発するためのガイドとして使用すべきトランスフォーマ・プロトタイプ・データセットを準備する工程であって、前記トランスフォーマ・プロトタイプ・データセットが整合化プロセスのキー属性を取り込む、準備する工程;
前記データ処理システムで、前記トランスフォーマ・プロトタイプ・データセット内のデータの現在のフォーマットに基づいて前記データ資産の変換のための第1の整合化トランスフォーマセットを作成する工程;
前記データ処理システムによって、変換されたデータ資産を生成するために前記データ資産に前記第1の整合化トランスフォーマセットを適用する工程;
前記データ処理システムによって、データ変換のためのアルゴリズムを開発するためのガイドとして使用すべき整合化プロトタイプデータセットを準備する工程であって、前記整合化プロトタイプデータセットが前記整合化プロセスのキー属性を取り込む、準備する工程;
前記データ処理システムによって、前記整合化プロトタイプデータセット内のデータの現在のフォーマットに基づいて前記変換されたデータ資産の変換のための第2の整合化トランスフォーマセットを作成する工程;
前記データ処理システムによって、整合化されたデータ資産を生成するために、前記変換されたデータ資産に前記第2の整合化トランスフォーマセットを適用する工程;ならびに
前記データ処理システムによって、前記整合化されたデータ資産をアルゴリズムを通して動作させる工程であって、前記アルゴリズムが、前記アルゴリズムを、前記データストレージ構造内の前記整合化されたデータ資産に、前記整合化されたデータ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で提供するセキュアなカプセル計算フレームワーク内にある、動作させる工程。
[本発明1036]
前記選択基準が、前記データホストとは異なるエンティティであるアルゴリズム開発者から受け取られ、前記選択基準が、前記データ資産が前記アルゴリズムで動作するための特性、フォーマットおよび要件を定義する、本発明1035の方法。
[本発明1037]
前記データ資産の前記特性および前記要件が、
(i)前記アルゴリズムの環境、(ii)前記入力データ内の例の配分、(iii)前記入力データを生成するデバイスのパラメータおよびタイプ、(iv)分散対バイアス、(v)前記アルゴリズムによって実装されたタスク、または(vi)それらの任意の組み合わせ
に基づいて定義される、本発明1036の方法。
[本発明1038]
前記トランスフォーマ・プロトタイプ・データセットを匿名化し、前記匿名化されたトランスフォーマ・プロトタイプ・データセットを、前記データ資産の変換のための前記第1の整合化トランスフォーマセットを作成する目的で、前記アルゴリズム開発者に供する工程をさらに含む、本発明1037の方法。
[本発明1039]
前記データ資産に前記第1の整合化トランスフォーマセットを適用する工程が、前記データ構造内で行われる、本発明1035、1036、1037、または1038の方法。
[本発明1040]
前記データ処理システムで、注釈付きデータセットを生成するために、定義済み注釈付けプロトコルに従って、前記変換されたデータ資産に注釈を付ける工程をさらに含み、
前記変換されたデータに前記注釈を付ける工程が前記データ構造内で行われ、前記第2の整合化トランスフォーマセットが、整合化されたデータ資産を生成するために、前記注釈付きデータセットに適用される、
本発明1035~1039のいずれかの方法。
[本発明1041]
前記注釈付きデータ資産に前記第2の整合化トランスフォーマセットを前記適用する工程が、前記データ構造内で行われる、本発明1035~1040のいずれかの方法。
[本発明1042]
前記第1の整合化トランスフォーマセット、前記注釈、および前記第2の整合化トランスフォーマセットが、正常に適用され、かつデータプライバシー要件に違反せずに適用されるかどうかを判定する工程
をさらに含む、本発明1040または1041の方法。
[本発明1043]
1つまたは複数のデータプロセッサと、
前記1つまたは複数のデータプロセッサ上で実行されると、前記1つまたは複数のデータプロセッサに、
データ資産の選択基準に基づいてデータホストから利用可能な前記データ資産を識別する動作と、
前記データ資産を、前記データホストのインフラストラクチャ内にあるデータストレージ構造内でキュレートする動作と、
データ変換のためのアルゴリズムとして使用すべきトランスフォーマ・プロトタイプ・データセットを準備する動作であって、前記トランスフォーマ・プロトタイプ・データセットが整合化プロセスのキー属性を取り込む、準備する動作と、
前記トランスフォーマ・プロトタイプ・データセット内のデータの現在のフォーマットに基づいて前記データ資産の変換のための第1の整合化トランスフォーマセットを作成する動作と、
変換されたデータ資産を生成するために前記データ資産に前記第1の整合化トランスフォーマセットを適用する動作と、
データ変換のためのアルゴリズムを開発するために使用すべき整合化プロトタイプデータセットを準備する動作であって、前記整合化プロトタイプデータセットが前記整合化プロセスのキー属性を取り込む、準備する動作と、
前記整合化プロトタイプデータセット内のデータの現在のフォーマットに基づいて、前記変換されたデータ資産の変換のための第2の整合化トランスフォーマセットを作成する動作と、
整合化されたデータ資産を生成するために、前記変換されたデータ資産に前記第2の整合化トランスフォーマセットを適用する動作と、
前記整合化されたデータ資産をアルゴリズムを通して動作させる動作であって、前記アルゴリズムが、前記アルゴリズムを、前記データストレージ構造内の前記整合化されたデータ資産に、前記整合化されたデータ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で提供するセキュアなカプセル計算フレームワーク内にある、動作させる動作と
を含む動作を行わせる命令を含む、非一時的コンピュータ可読記憶媒体と
を含む、システム。
[本発明1044]
以下の工程を含む方法:
アルゴリズムまたはモデルを識別する工程であって、前記アルゴリズムまたはモデルが、セキュアなカプセル計算フレームワークに統合され、前記セキュアなカプセル計算フレームワークが、前記アルゴリズムまたはモデルを、データホストのデータストレージ構造内の訓練データ資産に、前記訓練データ資産および前記アルゴリズムまたはモードのプライバシーを保全するセキュアな方法で提供する、識別する工程;
データ処理システムによって、前記アルゴリズムまたはモデルで連合訓練ワークフローを実行する工程であって、前記連合訓練ワークフローが、前記訓練データ資産を入力として取り込み、パラメータを使用して前記訓練データ資産の特徴をターゲット推論にマップし、損失関数または誤差関数を計算し、前記損失関数または前記誤差関数を最小化するためにパラメータを学習されたパラメータに更新し、訓練されたアルゴリズムまたはモデルを出力する、実行する工程;
前記データ処理システムによって、前記アルゴリズムまたはモデルの前記学習されたパラメータを、完全連合アルゴリズムまたはモデルに統合する工程であって、前記統合する工程が、前記学習されたパラメータを集約して、集約されたパラメータを取得することと、前記完全連合アルゴリズムまたはモデルの学習されたパラメータを前記集約されたパラメータで更新することとを含む、統合する工程;
前記データ処理システムによって、前記完全連合アルゴリズムまたはモデルで試験ワークフローを実行する工程であって、前記試験ワークフローが、試験データを入力として取り込み、前記更新された学習されたパラメータを使用して前記試験データ内のパターンを見つけ、推論を出力する、実行する工程;
前記データ処理システムによって、前記推論を提供する際の前記完全連合アルゴリズムの性能を計算する工程;
前記データ処理システムによって、前記完全連合アルゴリズムまたはモデルの前記性能がアルゴリズム終了基準を満たすかどうかを判定する工程;
前記完全連合アルゴリズムまたはモデルの前記性能が前記アルゴリズム終了基準を満たさない場合、前記データ処理システムによって、前記アルゴリズムまたはモデルを前記完全連合アルゴリズムまたはモデルで置き換え、前記完全連合アルゴリズムまたはモデルで前記連合訓練ワークフローを再実行する工程;ならびに
前記完全連合アルゴリズムまたはモデルの前記性能が前記アルゴリズム終了基準を満たす場合、前記データ処理システムによって、前記完全連合アルゴリズムまたはモデルの前記性能および前記集約されたパラメータを、前記アルゴリズムまたはモデルのアルゴリズム開発者に提供する工程。
[本発明1045]
以下の工程を含む方法:
アルゴリズムを識別する工程であって、前記アルゴリズムが、アルゴリズム開発者によって提供されてセキュアなカプセル計算フレームワークに統合され、前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを、データストレージ構造内の検証データ資産に、前記検証データ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で提供する、識別する工程;
データ処理システムによって、前記アルゴリズムで検証ワークフローを実行する工程であって、前記検証ワークフローが、前記検証データ資産を入力として取り込み、学習されたパラメータを使用して前記検証データ資産に前記アルゴリズムを適用し、推論を出力する、実行する工程;
前記データ処理システムによって、前記推論を提供する際の前記アルゴリズムの性能を計算する工程であって、前記性能がゴールド・スタンダード・ラベルに基づいて計算される、計算する工程;
前記データ処理システムによって、前記アルゴリズムの前記性能がアルゴリズム開発者によって定義された検証基準を満たすかどうかを判定する工程;
前記アルゴリズムの前記性能が前記検証基準を満たさない場合、前記データ処理システムで、前記アルゴリズムの1つまたは複数のハイパーパラメータを最適化し、前記最適化された1つまたは複数のハイパーパラメータを用いて、前記アルゴリズムで前記検証ワークフローを再実行する工程;ならびに
前記アルゴリズムの前記性能が前記検証基準を満たす場合、前記データ処理システムによって、前記アルゴリズムの前記性能および前記1つまたは複数のハイパーパラメータを、前記アルゴリズム開発者に提供する工程。
[本発明1046]
前記アルゴリズムを前記識別する工程が、
前記データ処理システムにおいて、前記アルゴリズムおよび前記アルゴリズムと関連付けられた入力データ要件を受け取ることであって、前記入力データ要件が、データ資産が前記アルゴリズムで動作するための検証選択基準を含む、受け取ることと、
前記データ処理システムによって、前記データ資産を、前記データ資産についての前記検証選択基準に基づいてデータホストから利用可能であるものとして識別することと、
前記データ処理システムによって、前記データホストのインフラストラクチャ内にあるデータストレージ構造内の前記データ資産をキュレートすることと、
前記データ資産の少なくとも一部を、前記データホストの前記インフラストラクチャ内にある前記データストレージ構造内の前記検証データ資産に分割することと
を含む、本発明1044の方法。
[本発明1047]
前記検証選択基準が、臨床コホート基準、人口統計学的基準、および/またはデータ・セット・クラス・バランスを含み、前記臨床コホート基準が、コホート研究のために前記データ資産を取得するべき人々のグループ、前記コホート研究のタイプ、前記人々のグループが一定期間にわたってさらされる可能性のあるリスク因子、解決されるべき疑問もしくは仮説および関連付けられる疾患もしくは状態、前記コホート研究の基準を定義するその他のパラメータ、またはそれらの任意の組み合わせを定義する、本発明1045の方法。
[本発明1048]
前記データ処理システムによって、前記データホストを迎え入れる工程であって、前記迎え入れる工程が、前記アルゴリズムでの前記データ資産の使用がデータプライバシー要件に準拠したものであることを確認することを含む、迎え入れる工程;ならびに
前記アルゴリズムを検証する目的での前記データホストからの前記データ資産の使用の施設内審査委員会からの許可を含む、ガバナンス要件およびコンプライアンス要件を完了する工程
をさらに含み、
前記キュレートする工程が、複数のデータストレージ構造の中から前記データストレージ構造を選択することと、前記データホストの前記インフラストラクチャ内に前記データストレージ構造をプロビジョニングすることとを含み、前記データストレージ構造の前記選択が、前記アルゴリズム内のアルゴリズムのタイプ、前記データ資産内のデータのタイプ、前記データ処理システムのシステム要件、またはそれらの組み合わせに基づくものである、
本発明1045または1046の方法。
[本発明1049]
前記アルゴリズムの前記性能が前記検証基準を満たす場合、前記データ処理システムによって、前記アルゴリズムおよび前記検証データ資産を、前記検証データ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で維持する工程
をさらに含む、本発明1044~1047のいずれかの方法。
[本発明1050]
前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを動作させるのに必要な暗号化コードを受け入れるように構成された計算インフラストラクチャ内にプロビジョニングされ、
前記計算インフラストラクチャを前記プロビジョニングすることが、前記計算インフラストラクチャ上で前記セキュアなカプセル計算フレームワークをインスタンス化することと、前記アルゴリズム開発者によって、前記暗号化コードを前記セキュアなカプセル計算フレームワークの内部に配置することと、前記セキュアなカプセル計算フレームワークがインスタンス化された後で、前記暗号化コードを復号することとを含む、
本発明1044~1048のいずれかの方法。
[本発明1051]
前記検証データ資産が、複数の独立したデータ資産セットであり、前記暗号化コードが、前記データ処理システムによって署名されてデータ・ストレージ・アーカイブに格納され、前記アルゴリズムの前記性能が、前記複数の独立したデータ資産セットに対して行われた複数の検証から集約された前記アルゴリズムの検証についての単一の検証報告として提供される、本発明1049の方法。
[本発明1052]
1つまたは複数のデータプロセッサと、
前記1つまたは複数のデータプロセッサ上で実行されると、前記1つまたは複数のデータプロセッサに、
アルゴリズムを識別する動作であって、前記アルゴリズムが、アルゴリズム開発者によって提供されてセキュアなカプセル計算フレームワークに統合され、前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを、データストレージ構造内の検証データ資産に、前記検証データ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で提供する、識別する動作と、
前記アルゴリズムで検証ワークフローを実行する動作であって、前記検証ワークフローが、前記検証データ資産を入力として取り込み、学習されたパラメータを使用して前記検証データ資産内のパターンを見つけ、推論を出力する、実行する動作と、
前記推論を提供する際の前記アルゴリズムの性能を計算する動作であって、前記性能がゴールド・スタンダード・ラベルに基づいて計算される、計算する動作と、
前記アルゴリズムの前記性能がアルゴリズム開発者によって定義された検証基準を満たすかどうかを判定する動作と、
前記アルゴリズムの前記性能が前記検証基準を満たさない場合、前記アルゴリズムの1つまたは複数のハイパーパラメータを最適化し、前記最適化された1つまたは複数のハイパーパラメータを用いて、前記アルゴリズムで前記検証ワークフローを再実行する動作と、
前記アルゴリズムの前記性能が前記検証基準を満たす場合、前記アルゴリズムの前記性能および前記1つまたは複数のハイパーパラメータを、前記アルゴリズム開発者に提供する動作と
を含む動作を行わせる命令を含む、非一時的コンピュータ可読記憶媒体と
を含む、システム。
[本発明1053]
以下の工程を含む方法:
データ処理システムにおいて、アルゴリズムおよび前記アルゴリズムと関連付けられた入力データ要件を受け取る工程であって、前記入力データ要件が、データ資産が前記アルゴリズムで動作するための検証選択基準を含む、受け取る工程;
前記データ処理システムによって、前記データ資産を、前記データ資産についての前記検証選択基準に基づいてデータホストから利用可能であるものとして識別する工程;
前記データ処理システムによって、前記データホストのインフラストラクチャ内のデータストレージ構造内の前記データ資産をキュレートする工程;
前記データ処理システムによって、前記アルゴリズムによって処理するための前記データストレージ構造内の前記データ資産を準備する工程;
前記データ処理システムによって、前記アルゴリズムをセキュアなカプセル計算フレームワークに統合する工程であって、前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを前記データストレージ構造内の前記データ資産に、前記データ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で提供する、統合する工程;ならびに
前記データ処理システムによって、前記アルゴリズムで検証ワークフローを実行する工程であって、前記検証ワークフローが、前記データ資産を入力として取り込み、学習されたパラメータを使用して前記データ資産内のパターンを見つけ、推論を出力する、実行する工程;
前記データ処理システムによって、前記推論を提供する際の前記アルゴリズムの性能を計算する工程であって、前記性能がゴールド・スタンダード・ラベルに基づいて計算される、計算する工程;ならびに
前記データ処理システムによって、前記アルゴリズムの前記性能を、前記アルゴリズム開発者に提供する工程。
[本発明1054]
前記検証選択基準が、臨床コホート基準、人口統計学的基準、および/またはデータ・セット・クラス・バランスを含み、前記臨床コホート基準が、コホート研究のために前記データ資産を取得するべき人々のグループ、前記コホート研究のタイプ、前記人々のグループが一定期間にわたってさらされる可能性のあるリスク因子、解決されるべき疑問もしくは仮説および関連付けられる疾患もしくは状態、前記コホート研究の基準を定義するその他のパラメータ、またはそれらの任意の組み合わせを定義する、本発明1053の方法。
[本発明1055]
前記データ処理システムによって、前記データホストを迎え入れる工程であって、前記迎え入れる工程が、前記アルゴリズムでの前記データ資産の使用がデータプライバシー要件に準拠したものであることを確認することを含む、迎え入れる工程;ならびに
前記アルゴリズムを検証する目的での前記データホストからの前記データ資産の使用の施設内審査委員会からの許可を含む、ガバナンス要件およびコンプライアンス要件を完了する工程
をさらに含み、
前記キュレートする工程が、複数のデータストレージ構造の中から前記データストレージ構造を選択することと、前記データホストの前記インフラストラクチャ内に前記データストレージ構造をプロビジョニングすることとを含み、前記データストレージ構造の前記選択が、前記アルゴリズム内のアルゴリズムのタイプ、前記データ資産内のデータのタイプ、前記データ処理システムのシステム要件、またはそれらの組み合わせに基づくものである、
本発明1053または1054の方法。
[本発明1056]
前記データ処理システムによって、前記アルゴリズムおよび前記データ資産を、前記データ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で維持する工程をさらに含む、本発明1053~1055のいずれかの方法。
[本発明1057]
前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを動作させるのに必要な暗号化コードを受け入れるように構成された計算インフラストラクチャ内にプロビジョニングされ、
前記計算インフラストラクチャを前記プロビジョニングすることが、前記計算インフラストラクチャ上で前記セキュアなカプセル計算フレームワークをインスタンス化することと、前記アルゴリズム開発者によって、前記暗号化コードを前記セキュアなカプセル計算フレームワークの内部に配置することと、前記セキュアなカプセル計算フレームワークがインスタンス化された後で、前記暗号化コードを復号することとを含む、
本発明1053~1056のいずれかの方法。
[本発明1058]
前記データ資産が、複数の独立したデータ資産セットであり、前記暗号化コードが、前記データ処理システムによって署名されてデータ・ストレージ・アーカイブに格納され、前記アルゴリズムの前記性能が、前記複数の独立したデータ資産セットに対して行われた複数の検証から集約された前記アルゴリズムの検証についての単一の検証報告として提供される、本発明1057の方法。
用いられている用語および表現は、限定ではなく説明の用語として使用されており、そのような用語および表現の使用に際して、図示および説明される特徴のうちのその部分の任意の均等物を除外する意図はなく、特許請求される発明の範囲内で様々な改変が可能であることを理解されたい。よって、特許請求される本発明は態様および任意の特徴によって具体的に開示されているが、当業者によれば本明細書に開示される概念の改変および変形が用いられ得ること、およびそのような改変および変形は、添付の特許請求の範囲によって定義される本発明の範囲内にあるとみなされることを理解されたい。
I. 概論
本開示は、プライバシー保護された整合化データ(例えば、臨床データおよび健康データ)の複数のソースに解析を分散させることによってAIアプリケーションおよび/またはアルゴリズムを開発するための技術を説明する。より具体的には、本開示のいくつかの態様は、プライバシー保護された整合化データ(例えば、臨床データおよび健康データ)の複数のソースに解析を分散することによって、アプリケーションおよび/またはアルゴリズム開発(本明細書では個別にまたは集合的にアルゴリズム開発と呼ばれ得る)を加速するAIアルゴリズム開発プラットフォームを提供する。医療産業における問題を解決するためにAIアルゴリズムが開発される機械学習およびアルゴリズムアーキテクチャの様々な態様が本明細書に開示されているが、これらのアーキテクチャおよび技術を、他のタイプのシステムおよび設定で実施することもできることを理解されたい。例えば、これらのアーキテクチャおよび技術を、データの機密性(例えば、データが企業秘密や個人に関するプライベートデータを含むかどうか)が、データの保護に責任を負う組織の境界外でのデータの共有を妨げる、多くの産業(金融、ライフサイエンス、サプライチェーン、国家安全、法執行、公共安全など)におけるAIアルゴリズムの開発において実装することができる。
図1に、データセット105a~105nからのデータの増強、アルゴリズム/モデル110a~110nの展開、アルゴリズム/モデル110a~110nの検証、アルゴリズム/モデル110a~110nの最適化(訓練/試験)、および複数のデータセット105a~105nに対するアルゴリズム/モデル110a~110nの連合訓練を含む、プライベートデータセット105a~105n(「n」は任意の自然数を表す)に対するセキュアな連合計算を可能にするAIエコシステム100を示す。AI開発プラットフォーム110は、AIシステム115と、セキュアなカプセル計算サービス120a~120nとを含む。AIシステム115は、AIエコシステム100内のソフトウェア資産の開発および展開を管理する。訓練、最適化、採点および検証のための事前訓練されたアルゴリズム/モデル110a~110nと、(データに対してアルゴリズム/モデルを訓練するための)アルゴリズム訓練コードとを含む様々なソフトウェアモジュールが、AIシステム115を介して開発および展開される。例えば、AIシステム115は、様々なソフトウェアコンポーネントを1つまたは複数のセキュアなカプセル計算サービス120a~120nに展開または出力し得る。セキュアなカプセル計算サービス120a~120nは、完全にデータホストの計算ドメイン内のセキュアなカプセル計算サービス環境で計算することができるカプセル化された、またはその他のポータブルなソフトウェアコンポーネントである。
様々な態様において、プライバシー保護された整合化データ(例えば、整合化臨床データおよび健康データ)の1つまたは複数のソースを使用して1つまたは複数のモデルを最適化および検証するための技術が提供される。モデルは、第1のエンティティ(例えば、ライフサイエンス企業などのアルゴリズム開発者)によって提供され得、データセットは、第2のエンティティ(例えば、大学医療センターなどのデータホスト)によって提供され得る。例えば、ライフサイエンス企業は、プライバシー保護された整合化臨床データおよび健康データの1つまたは複数のソースに対する自社のモデルの実行性能を最適化または評価することによって、製品およびサービスの市販までの時間を加速し、または商業的実行可能性を最適化することに関心がある場合がある。さらに、大学医療センターは、その臨床データおよび健康データの価値をデータプライバシーを維持する方法で掘り起こすことに関心がある場合がある。図3に示されるように、これらの2つのエンティティの要望を満たすために、臨床データおよび健康データに対してモデルを最適化および/または検証するためのコアプロセス300が、人工知能アルゴリズム開発プラットフォーム(例えば、図1および図2に関して説明されたプラットフォームおよびシステム)を使用して行われ得る。
上記の説明では、態様の完全な理解を提供するために具体的な詳細が示されている。しかしながら、態様をこれらの具体的な詳細なしで実施することができることが理解される。例えば、態様を不必要な詳細で不明瞭にしないために、回路をブロック図に示すことができる。他の例では、態様を不明瞭にすることを回避するために、周知の回路、プロセス、アルゴリズム、構造、および技術を不必要な詳細なしで示すことができる。
Claims (15)
- 以下の工程を含む方法:
データ処理システムにおいて、アルゴリズムおよび前記アルゴリズムと関連付けられた入力データ要件を受け取る工程であって、前記入力データ要件が、データ資産が前記アルゴリズムで動作するための最適化および/または検証選択基準を含み、前記最適化および/または検証選択基準は、前記データ資産が前記アルゴリズムで動作するための特性、フォーマット、および要件を定義し、前記データ資産の特性および要件は、前記データ資産が前記アルゴリズムを最適化および/または検証するために使用可能であるデータの特性および要件を指し、前記アルゴリズムおよび入力データ要件は、アルゴリズム開発者から受け取られる、前記受け取る工程;
前記データ処理システムによって、前記データ資産を、前記データ資産についての前記最適化および/または検証選択基準に基づいて、データホストから利用可能であるものとして識別する工程であって、前記データホストは、前記アルゴリズム開発者とは異なるエンティティである、前記識別する工程;
前記データ処理システムによって、前記データホストのインフラストラクチャ内のデータストレージ構造内の前記データ資産をキュレートする工程;
前記データ処理システムによって、前記アルゴリズムが処理するための前記データストレージ構造内の前記データ資産を準備する工程;
前記データ処理システムによって、セキュアなカプセル計算フレームワークを、前記データホストのインフラストラクチャの計算インフラストラクチャ内にプロビジョニングする工程であって、前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを前記データストレージ構造内の前記データ資産に、前記データ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で提供する、前記プロビジョニングする工程;
前記データ処理システムによって、前記アルゴリズムを前記セキュアなカプセル計算フレームワークに統合する工程であって、前記アルゴリズム開発者によって、前記アルゴリズムを動作させるための暗号化コードを前記セキュアなカプセル計算フレームワークの内部に配置することと、前記アルゴリズム開発者によって、前記アルゴリズムを動作させるための復号化コードを得るために前記暗号化コードを復号化することとを含む、前記統合する工程;ならびに、
前記データ処理システムによって、前記データ資産を前記アルゴリズムを通して動作させる工程であって、1つまたは複数のセキュアなアプリケーション・プログラム・インターフェースを介して、前記データ資産を前記データストレージ構造から前記セキュアなカプセル計算フレームワーク内の前記アルゴリズムへ渡すことと、前記データ資産および前記復号化コードを用いて前記アルゴリズムを最適化する、検証する、または前記アルゴリズムにより推論を計算することと、前記最適化、検証、または推論の計算の結果を、前記1つまたは複数のセキュアなアプリケーション・プログラム・インターフェースを介して、前記アルゴリズム開発者または前記データホストに渡すこととを含む、前記動作させる工程。 - 前記データ資産の前記特性および前記要件が、
(i)前記アルゴリズムの環境、(ii)前記データ資産内の例の配分、(iii)前記データ資産を生成するデバイスのパラメータおよびタイプ、(iv)分散対バイアス、(v)前記アルゴリズムによって実装されたタスク、または(vi)それらの任意の組み合わせ
に基づいて定義される、請求項1記載の方法。 - 前記識別する工程が、前記データ資産内の個人に関するプライベート情報を伏せたままで、前記データ資産内のグループのパターンを記述することによって、前記データ資産内の情報を共有するための差分プライバシーを使用して行われ、
前記キュレートする工程が、複数のデータストレージ構造の中から前記データストレージ構造を選択することと、前記データホストの前記インフラストラクチャ内に前記データストレージ構造をプロビジョニングすることとを含み、
前記データストレージ構造の前記選択が、前記アルゴリズムのタイプ、前記データ資産内のデータのタイプ、前記データ処理システムのシステム要件、またはそれらの組み合わせに基づくものである、
請求項1記載の方法。 - 前記データ処理システムによって、前記データホストを迎え入れる工程をさらに含み、
前記迎え入れる工程が、前記アルゴリズムでの前記データ資産の使用がデータプライバシー要件に準拠したものであることを確認することを含む、
請求項1記載の方法。 - 前記データ資産を準備する工程が、前記データ資産に1つもしくは複数の変換を適用すること、前記データ資産に注釈を付けること、前記データ資産を整合化すること、またはそれらの組み合わせを含む、請求項1記載の方法。
- 前記データ資産を前記アルゴリズムを通して前記動作させる工程が、
前記アルゴリズムの複数のインスタンスを作成することと、前記データ資産を、訓練データセットと1つまたは複数の試験データセットとに分割することと、前記アルゴリズムの前記複数のインスタンスを前記訓練データセットで訓練することと、前記アルゴリズムの前記複数のインスタンスの各々の前記訓練からの結果を完全連合アルゴリズムに統合することと、前記1つまたは複数の試験データセットを前記完全連合アルゴリズムを通して動作させることと、前記1つまたは複数の試験データセットの前記動作に基づいて前記完全連合アルゴリズムの性能を計算することとを含む、訓練ワークフロー
を実行することをさらに含む、請求項1記載の方法。 - 前記データ資産を前記アルゴリズムを通して前記動作させる工程が、
前記データ資産を1つまたは複数の検証データセットにおいて分割することと、前記1つまたは複数の検証データセットを前記アルゴリズムを通して動作させることと、前記1つまたは複数の検証データセットの前記動作に基づいて前記アルゴリズムの性能を計算することとを含む、検証ワークフロー
を実行することをさらに含む、請求項1記載の方法。 - 1つまたは複数のデータプロセッサと、
前記1つまたは複数のデータプロセッサ上で実行されると、前記1つまたは複数のデータプロセッサに、
アルゴリズムおよび前記アルゴリズムと関連付けられた入力データ要件を受け取る動作であって、前記入力データ要件が、データ資産が前記アルゴリズムで動作するための最適化および/または検証選択基準を含み、前記最適化および/または検証選択基準は、前記データ資産が前記アルゴリズムで動作するための特性、フォーマット、および要件を定義し、前記データ資産の特性および要件は、前記データ資産が前記アルゴリズムを最適化および/または検証するために使用可能であるデータの特性および要件を指し、前記アルゴリズムおよび入力データ要件は、アルゴリズム開発者から受け取られる、前記受け取る動作と、
前記データ資産を、前記データ資産についての前記最適化および/または検証選択基準に基づいてデータホストから利用可能であるものとして識別する動作であって、前記データホストは、前記アルゴリズム開発者とは異なるエンティティである、前記識別する動作と、
前記データ資産を、前記データホストのインフラストラクチャ内にあるデータストレージ構造内でキュレートする動作と、
前記アルゴリズムによって処理するための前記データストレージ構造内の前記データ資産を準備する動作と、
セキュアなカプセル計算フレームワークを、前記データホストのインフラストラクチャの計算インフラストラクチャ内にプロビジョニングする動作であって、前記セキュアなカプセル計算フレームワークが前記アルゴリズムを前記データストレージ構造内の前記データ資産に、前記データ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で提供する、前記プロビジョニングする動作と、
前記アルゴリズムを前記セキュアなカプセル計算フレームワークに統合する動作であって、前記アルゴリズム開発者によって、前記アルゴリズムを動作させるための暗号化コードを前記セキュアなカプセル計算フレームワークの内部に配置することと、前記アルゴリズム開発者によって、前記アルゴリズムを動作させるための復号化コードを得るために前記暗号化コードを復号化することとを含む、前記統合する動作と、
前記データ資産を前記アルゴリズムを通して動作させる動作であって、1つまたは複数のセキュアなアプリケーション・プログラム・インターフェースを介して、前記データ資産を前記データストレージ構造から前記セキュアなカプセル計算フレームワーク内の前記アルゴリズムへ渡すことと、前記データ資産および前記復号化コードを用いて前記アルゴリズムを最適化する、検証する、または前記アルゴリズムにより推論を計算することと、前記最適化、検証、または推論の計算の結果を、前記1つまたは複数のセキュアなアプリケーション・プログラム・インターフェースを介して、前記アルゴリズム開発者または前記データホストに渡すこととを含む、前記動作させる動作と
を含む動作を行わせる命令を含む、非一時的コンピュータ可読記憶媒体と
を含む、システム。 - 前記データ資産の前記特性および前記要件が、
(i)前記アルゴリズムの環境、(ii)前記データ資産内の例の配分、(iii)前記データ資産を生成するデバイスのパラメータおよびタイプ、(iv)分散対バイアス、(v)前記アルゴリズムによって実装されたタスク、または(vi)それらの任意の組み合わせ
に基づいて定義される、請求項8記載のシステム。 - 前記識別する動作が、前記データ資産内の個人に関するプライベート情報を伏せたままで、前記データ資産内のグループのパターンを記述することによって、前記データ資産内の情報を共有するための差分プライバシーを使用して行われ、
前記キュレートする動作が、複数のデータストレージ構造の中から前記データストレージ構造を選択することと、前記データホストの前記インフラストラクチャ内に前記データストレージ構造をプロビジョニングすることとを含み、
前記データストレージ構造の前記選択が、前記アルゴリズムのタイプ、前記データ資産内のデータのタイプ、前記システムの要件、またはそれらの組み合わせに基づくものである、
請求項8記載のシステム。 - 前記動作が、前記データホストを迎え入れることをさらに含み、
前記迎え入れることが、前記アルゴリズムでの前記データ資産の使用がデータプライバシー要件に準拠したものであることを確認することを含む、
請求項8記載のシステム。 - 前記データ資産を準備する動作が、前記データ資産に1つもしくは複数の変換を適用すること、前記データ資産に注釈を付けること、前記データ資産を整合化すること、またはそれらの組み合わせを含む、請求項8記載のシステム。
- 前記データ資産を前記アルゴリズムを通して前記動作させる動作が、
前記アルゴリズムの複数のインスタンスを作成することと、前記データ資産を、訓練データセットと1つまたは複数の試験データセットとに分割することと、前記アルゴリズムの前記複数のインスタンスを前記訓練データセットで訓練することと、前記アルゴリズムの前記複数のインスタンスの各々の前記訓練からの結果を完全連合アルゴリズムに統合することと、前記1つまたは複数の試験データセットを前記完全連合アルゴリズムによって動作させることと、前記1つまたは複数の試験データセットの前記動作に基づいて前記完全連合アルゴリズムの性能を計算することとを含む、訓練ワークフロー
を実行することをさらに含む、請求項8記載のシステム。 - 前記データ資産を前記アルゴリズムを通して前記動作させる動作が、
前記データ資産を1つまたは複数の検証データセットにおいて分割することと、前記1つまたは複数の検証データセットを前記アルゴリズムを通して動作させることと、前記1つまたは複数の検証データセットの前記動作に基づいて前記アルゴリズムの性能を計算することとを含む、検証ワークフロー
を実行することをさらに含む、請求項8記載のシステム。 - 1つまたは複数のプロセッサによって実行されると、システムに、
アルゴリズムおよび前記アルゴリズムと関連付けられた入力データ要件を受け取る動作であって、前記入力データ要件が、データ資産が前記アルゴリズムで動作するための最適化および/または検証選択基準を含み、前記最適化および/または検証選択基準は、前記データ資産が前記アルゴリズムで動作するための特性、フォーマット、および要件を定義し、前記データ資産の特性および要件は、前記データ資産が前記アルゴリズムを最適化および/または検証するために使用可能であるデータの特性および要件を指し、前記アルゴリズムおよび入力データ要件は、アルゴリズム開発者から受け取られる、前記受け取る動作と、
前記データ資産を、前記データ資産についての前記最適化および/または検証選択基準に基づいてデータホストから利用可能であるものとして識別する動作であって、前記データホストは、前記アルゴリズム開発者とは異なるエンティティである、前記識別する動作と、
前記データ資産を、前記データホストのインフラストラクチャ内にあるデータストレージ構造内でキュレートする動作と、
前記アルゴリズムによって処理するための前記データストレージ構造内の前記データ資産を準備する動作と、
セキュアなカプセル計算フレームワークを、前記データホストのインフラストラクチャの計算インフラストラクチャ内にプロビジョニングする動作であって、前記セキュアなカプセル計算フレームワークが、前記アルゴリズムを、前記データストレージ構造内の前記データ資産に、前記データ資産および前記アルゴリズムのプライバシーを保全するセキュアな方法で提供する、前記プロビジョニングする動作と、
前記アルゴリズムを前記セキュアなカプセル計算フレームワークに統合する動作であって、前記アルゴリズム開発者によって、前記アルゴリズムを動作させるための暗号化コードを前記セキュアなカプセル計算フレームワークの内部に配置することと、前記アルゴリズム開発者によって、前記アルゴリズムを動作させるための復号化コードを得るために前記暗号化コードを復号化することとを含む、前記統合する動作と、
前記データ資産を前記アルゴリズムを通して動作させる動作であって、1つまたは複数のセキュアなアプリケーション・プログラム・インターフェースを介して、前記データ資産を前記データストレージ構造から前記セキュアなカプセル計算フレームワーク内の前記アルゴリズムへ渡すことと、前記データ資産および前記復号化コードを用いて前記アルゴリズムを最適化する、検証する、または前記アルゴリズムにより推論を計算することと、前記最適化、検証、または推論の計算の結果を、前記1つまたは複数のセキュアなアプリケーション・プログラム・インターフェースを介して、前記アルゴリズム開発者または前記データホストに渡すこととを含む、前記動作させる動作と
を含む操作を行わせる命令
を格納する、1つまたは複数の非一時的機械可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962824183P | 2019-03-26 | 2019-03-26 | |
US62/824,183 | 2019-03-26 | ||
US201962948556P | 2019-12-16 | 2019-12-16 | |
US62/948,556 | 2019-12-16 | ||
PCT/US2020/025083 WO2020198542A1 (en) | 2019-03-26 | 2020-03-26 | Distributed privacy-preserving computing on protected data |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022526948A JP2022526948A (ja) | 2022-05-27 |
JPWO2020198542A5 JPWO2020198542A5 (ja) | 2023-03-31 |
JP7439125B2 true JP7439125B2 (ja) | 2024-02-27 |
Family
ID=72606244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021557379A Active JP7439125B2 (ja) | 2019-03-26 | 2020-03-26 | 保護されたデータに対する分散型プライバシー保全コンピューティング |
Country Status (10)
Country | Link |
---|---|
US (3) | US11531904B2 (ja) |
EP (1) | EP3948570A4 (ja) |
JP (1) | JP7439125B2 (ja) |
KR (2) | KR102634785B1 (ja) |
CN (1) | CN113892093A (ja) |
AU (1) | AU2020244856B2 (ja) |
BR (1) | BR112021018241A2 (ja) |
CA (1) | CA3133466A1 (ja) |
IL (2) | IL311967A (ja) |
WO (1) | WO2020198542A1 (ja) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11763950B1 (en) | 2018-08-16 | 2023-09-19 | Clarify Health Solutions, Inc. | Computer network architecture with machine learning and artificial intelligence and patient risk scoring |
US11087004B2 (en) * | 2019-02-01 | 2021-08-10 | Rsa Security Llc | Anonymizing data sets in risk management applications |
WO2020198542A1 (en) | 2019-03-26 | 2020-10-01 | The Regents Of The University Of California | Distributed privacy-preserving computing on protected data |
US11625789B1 (en) | 2019-04-02 | 2023-04-11 | Clarify Health Solutions, Inc. | Computer network architecture with automated claims completion, machine learning and artificial intelligence |
US11621085B1 (en) | 2019-04-18 | 2023-04-04 | Clarify Health Solutions, Inc. | Computer network architecture with machine learning and artificial intelligence and active updates of outcomes |
US11238469B1 (en) | 2019-05-06 | 2022-02-01 | Clarify Health Solutions, Inc. | Computer network architecture with machine learning and artificial intelligence and risk adjusted performance ranking of healthcare providers |
US11238167B2 (en) * | 2019-06-14 | 2022-02-01 | Sap Se | Secure sublinear time differentially private median computation |
US11487902B2 (en) * | 2019-06-21 | 2022-11-01 | nference, inc. | Systems and methods for computing with private healthcare data |
JP7114528B2 (ja) * | 2019-07-08 | 2022-08-08 | 株式会社東芝 | 推論装置、学習装置、推論方法及び学習方法 |
US11449797B1 (en) * | 2019-09-23 | 2022-09-20 | Amazon Technologies, Inc. | Secure machine learning workflow automation using isolated resources |
US11531846B1 (en) * | 2019-09-30 | 2022-12-20 | Amazon Technologies, Inc. | Extending sensitive data tagging without reannotating training data |
US11270785B1 (en) | 2019-11-27 | 2022-03-08 | Clarify Health Solutions, Inc. | Computer network architecture with machine learning and artificial intelligence and care groupings |
US11398216B2 (en) | 2020-03-11 | 2022-07-26 | Nuance Communication, Inc. | Ambient cooperative intelligence system and method |
CN115917553A (zh) * | 2020-06-12 | 2023-04-04 | 甲骨文国际公司 | 在聊天机器人中实现稳健命名实体识别的实体级数据扩充 |
US11995048B2 (en) * | 2020-09-29 | 2024-05-28 | Adobe Inc. | Lifelong schema matching |
US20220108226A1 (en) | 2020-10-01 | 2022-04-07 | Nec Laboratories America, Inc. | Voting-based approach for differentially private federated learning |
CN112948836B (zh) * | 2020-11-16 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 保护神经网络模型安全的方法及装置 |
US11366894B1 (en) | 2020-12-08 | 2022-06-21 | International Business Machines Corporation | Secure computing resource deployment using homomorphic encryption |
CN112598311A (zh) * | 2020-12-29 | 2021-04-02 | 中国农业银行股份有限公司 | 一种风险操作识别模型构建方法、风险操作识别方法 |
CN113807380B (zh) * | 2020-12-31 | 2023-09-01 | 京东科技信息技术有限公司 | 一种联邦学习模型的训练方法、装置及电子设备 |
CN113807544B (zh) * | 2020-12-31 | 2023-09-26 | 京东科技控股股份有限公司 | 一种联邦学习模型的训练方法、装置及电子设备 |
US20220237503A1 (en) * | 2021-01-26 | 2022-07-28 | International Business Machines Corporation | Machine learning model deployment within a database management system |
US11847245B2 (en) * | 2021-02-17 | 2023-12-19 | Capital One Services, Llc | Privacy preserving data labeling |
US20220284278A1 (en) * | 2021-03-03 | 2022-09-08 | International Business Machines Corporation | Estimating remaining useful life based on operation and degradation characteristics |
US11783083B2 (en) | 2021-03-19 | 2023-10-10 | International Business Machines Corporation | Computing trade-offs between privacy and accuracy of data analysis |
US20220318420A1 (en) * | 2021-03-30 | 2022-10-06 | Adobe Inc. | Platform for unsupervised machine learning training on unseeable user generated assets |
KR102437715B1 (ko) * | 2021-06-07 | 2022-08-26 | 성신여자대학교 연구 산학협력단 | 데이터 분산처리 장치 및 이의 동작방법 |
US20220398327A1 (en) * | 2021-06-10 | 2022-12-15 | International Business Machines Corporation | Applying noise to formats with masking restrictions |
US20230025754A1 (en) * | 2021-07-22 | 2023-01-26 | Accenture Global Solutions Limited | Privacy-preserving machine learning training based on homomorphic encryption using executable file packages in an untrusted environment |
WO2023028694A1 (en) * | 2021-09-03 | 2023-03-09 | Bitnobi, Inc. | Federated, decentralized data sharing |
CA3233034A1 (en) * | 2021-09-27 | 2023-03-30 | Fairly Ai Inc. | System and method for artificial intelligence and machine learning model validation |
WO2023056546A1 (en) * | 2021-10-04 | 2023-04-13 | Fuseforward Technology Solutions Limited | Machine learning training system and method |
CN114154645B (zh) * | 2021-12-03 | 2022-05-17 | 中国科学院空间应用工程与技术中心 | 跨中心图像联合学习方法、系统、存储介质及电子设备 |
CN114239064A (zh) * | 2021-12-20 | 2022-03-25 | 杭州趣链科技有限公司 | 隐私计算方法、装置、电子设备及计算机可读存储介质 |
US20230205917A1 (en) * | 2021-12-24 | 2023-06-29 | BeeKeeperAI, Inc. | Systems and methods for data validation and transformation of data in a zero-trust environment |
CN114638376B (zh) * | 2022-03-25 | 2024-06-04 | 支付宝(杭州)信息技术有限公司 | 一种复合样本场景中的多方联合模型训练方法及装置 |
US20240020417A1 (en) * | 2022-04-29 | 2024-01-18 | BeeKeeperAI, Inc. | Systems and methods for federated feedback and secure multi-model training within a zero-trust environment |
US20230376859A1 (en) * | 2022-05-19 | 2023-11-23 | Microsoft Technology Licensing, Llc | Federated Learning Solutions for Machine Learning |
US20230394357A1 (en) | 2022-06-06 | 2023-12-07 | Epistamai LLC | Bias reduction in machine learning model training and inference |
US20230394366A1 (en) * | 2022-06-06 | 2023-12-07 | Epistamai LLC | Bias reduction in machine learning model training and inference |
US20240037299A1 (en) * | 2022-07-29 | 2024-02-01 | BeeKeeperAI, Inc. | Systems and methods for algorithm performance modeling in a zero-trust environment |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090254971A1 (en) | 1999-10-27 | 2009-10-08 | Pinpoint, Incorporated | Secure data interchange |
JP6329333B1 (ja) | 2016-07-04 | 2018-05-23 | 株式会社Seltech | 人工知能を有するシステム |
US20180182037A1 (en) | 2014-03-28 | 2018-06-28 | Jeffrey S. Lange | Systems and methods for crowdsourcing of algorithmic forecasting |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8346534B2 (en) | 2008-11-06 | 2013-01-01 | University of North Texas System | Method, system and apparatus for automatic keyword extraction |
US8959577B2 (en) | 2012-04-13 | 2015-02-17 | Cisco Technology, Inc. | Automatic curation and modification of virtualized computer programs |
US10133878B2 (en) * | 2014-07-30 | 2018-11-20 | Microsoft Technology Licensing, Llc | Stochastic privacy |
US20170258390A1 (en) | 2016-02-12 | 2017-09-14 | Newton Howard | Early Detection Of Neurodegenerative Disease |
WO2017187207A1 (en) | 2016-04-29 | 2017-11-02 | Privitar Limited | Computer-implemented privacy engineering system and method |
US20180150609A1 (en) * | 2016-11-29 | 2018-05-31 | Electronics And Telecommunications Research Institute | Server and method for predicting future health trends through similar case cluster based prediction models |
US20190392928A1 (en) | 2017-03-01 | 2019-12-26 | Seqster Pdm, Inc. | Personal data marketplace for genetic, fitness, and medical information including health trust management |
US10198399B1 (en) * | 2018-03-06 | 2019-02-05 | KenSci Inc. | Cryptographically secure machine learning |
WO2019231481A1 (en) * | 2018-05-29 | 2019-12-05 | Visa International Service Association | Privacy-preserving machine learning in the three-server model |
US10867067B2 (en) * | 2018-06-07 | 2020-12-15 | Cisco Technology, Inc. | Hybrid cognitive system for AI/ML data privacy |
US11443182B2 (en) * | 2018-06-25 | 2022-09-13 | International Business Machines Corporation | Privacy enhancing deep learning cloud service using a trusted execution environment |
US11816575B2 (en) * | 2018-09-07 | 2023-11-14 | International Business Machines Corporation | Verifiable deep learning training service |
US11710035B2 (en) * | 2018-09-28 | 2023-07-25 | Apple Inc. | Distributed labeling for supervised learning |
US10970402B2 (en) * | 2018-10-19 | 2021-04-06 | International Business Machines Corporation | Distributed learning preserving model security |
US11449775B2 (en) * | 2018-12-27 | 2022-09-20 | Hubspot, Inc. | Multi-client service system platform |
US20200293918A1 (en) * | 2019-03-15 | 2020-09-17 | Cognitive Scale, Inc. | Augmented Intelligence System Assurance Engine |
WO2020198542A1 (en) | 2019-03-26 | 2020-10-01 | The Regents Of The University Of California | Distributed privacy-preserving computing on protected data |
-
2020
- 2020-03-26 WO PCT/US2020/025083 patent/WO2020198542A1/en unknown
- 2020-03-26 KR KR1020217034758A patent/KR102634785B1/ko active IP Right Grant
- 2020-03-26 CN CN202080039647.9A patent/CN113892093A/zh active Pending
- 2020-03-26 BR BR112021018241A patent/BR112021018241A2/pt unknown
- 2020-03-26 KR KR1020247004049A patent/KR20240019868A/ko active Application Filing
- 2020-03-26 US US16/831,763 patent/US11531904B2/en active Active
- 2020-03-26 AU AU2020244856A patent/AU2020244856B2/en active Active
- 2020-03-26 CA CA3133466A patent/CA3133466A1/en active Pending
- 2020-03-26 IL IL311967A patent/IL311967A/en unknown
- 2020-03-26 JP JP2021557379A patent/JP7439125B2/ja active Active
- 2020-03-26 EP EP20778145.1A patent/EP3948570A4/en active Pending
-
2021
- 2021-09-09 IL IL286232A patent/IL286232A/en unknown
-
2022
- 2022-11-16 US US17/988,664 patent/US11748633B2/en active Active
-
2023
- 2023-06-14 US US18/335,053 patent/US12001965B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090254971A1 (en) | 1999-10-27 | 2009-10-08 | Pinpoint, Incorporated | Secure data interchange |
US20180182037A1 (en) | 2014-03-28 | 2018-06-28 | Jeffrey S. Lange | Systems and methods for crowdsourcing of algorithmic forecasting |
JP6329333B1 (ja) | 2016-07-04 | 2018-05-23 | 株式会社Seltech | 人工知能を有するシステム |
Also Published As
Publication number | Publication date |
---|---|
US20230080780A1 (en) | 2023-03-16 |
IL311967A (en) | 2024-06-01 |
US20200311300A1 (en) | 2020-10-01 |
KR102634785B1 (ko) | 2024-02-08 |
CN113892093A (zh) | 2022-01-04 |
US11748633B2 (en) | 2023-09-05 |
BR112021018241A2 (pt) | 2022-02-01 |
KR20240019868A (ko) | 2024-02-14 |
AU2020244856A1 (en) | 2021-10-28 |
EP3948570A4 (en) | 2022-12-21 |
US20230325682A1 (en) | 2023-10-12 |
CA3133466A1 (en) | 2020-10-01 |
KR20210143879A (ko) | 2021-11-29 |
EP3948570A1 (en) | 2022-02-09 |
US11531904B2 (en) | 2022-12-20 |
JP2022526948A (ja) | 2022-05-27 |
IL286232A (en) | 2021-10-31 |
WO2020198542A1 (en) | 2020-10-01 |
AU2020244856B2 (en) | 2024-05-16 |
US12001965B2 (en) | 2024-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7439125B2 (ja) | 保護されたデータに対する分散型プライバシー保全コンピューティング | |
US11848082B2 (en) | Systems and methods for computing with private healthcare data | |
Madhuri et al. | Challenges and issues of data analytics in emerging scenarios for big data, cloud and image mining | |
US20180082023A1 (en) | Secure Distributed Patient Consent and Information Management | |
US20210193297A1 (en) | Methods, Systems and Computer Program Products for Retrospective Data Mining | |
Meldolesi et al. | Standardized data collection to build prediction models in oncology: a prototype for rectal cancer | |
El-Sappagh et al. | Trustworthy artificial intelligence in Alzheimer’s disease: state of the art, opportunities, and challenges | |
US20220343499A1 (en) | Systems and methods for analysis of processing electronic images with flexible algorithmic processing | |
Lee et al. | Concept and proof of the lifelog bigdata platform for digital healthcare and precision medicine on the cloud | |
Yang et al. | Expert recommendation on collection, storage, annotation, and management of data related to medical artificial intelligence | |
Gao et al. | PANDA: facilitating usable AI development | |
EP4127972A1 (en) | Methods, systems and computer program products for retrospective data mining | |
Tarcar | Advancing healthcare solutions with federated learning | |
US20240020417A1 (en) | Systems and methods for federated feedback and secure multi-model training within a zero-trust environment | |
Jabborov et al. | Taxonomy of Quality Assessment for Intelligent Software Systems: A Systematic Literature Review | |
US20230315902A1 (en) | Systems and methods for dataset verification in a zero-trust computing environment | |
US20230162823A1 (en) | Retroactive coding for healthcare | |
US20230289728A1 (en) | Systems and methods for using distributed computing in healthcare model development | |
Patel | Panacea: Making the World’s Biomedical Information Computable to Develop Data Platforms for Machine Learning | |
Diot-Dejonghe et al. | Development of a Secure Web-Based Medical Imaging Analysis Platform: The AWESOMME Project | |
Dasoriya et al. | Advancements in Data Analytics using Big Data and Cloud Computing | |
Khan et al. | Applications of Parallel Data Processing for Biomedical Imaging | |
Darzidehkalani | Federated learning in medical image analysis | |
Hof et al. | The DANS services for sharing, cataloguing and archiving your health data | |
WO2023164519A2 (en) | Synthetic and traditional data stewards for selecting, optimizing, verifying and recommending one or more datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230323 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230323 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230522 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231101 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20231121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7439125 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |