JP7308466B2 - 情報処理システム、情報処理方法、及び、プログラム - Google Patents

情報処理システム、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP7308466B2
JP7308466B2 JP2021508815A JP2021508815A JP7308466B2 JP 7308466 B2 JP7308466 B2 JP 7308466B2 JP 2021508815 A JP2021508815 A JP 2021508815A JP 2021508815 A JP2021508815 A JP 2021508815A JP 7308466 B2 JP7308466 B2 JP 7308466B2
Authority
JP
Japan
Prior art keywords
data
learning
information
information processing
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021508815A
Other languages
English (en)
Other versions
JPWO2020195419A1 (ja
Inventor
太一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020195419A1 publication Critical patent/JPWO2020195419A1/ja
Application granted granted Critical
Publication of JP7308466B2 publication Critical patent/JP7308466B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • General Factory Administration (AREA)

Description

本開示は、一般に、情報処理システム、情報処理方法、及び、プログラムに関する。本開示は、特に、機械学習に関連する処理を実行する情報処理システム、情報処理方法、及びプログラムに関する。
特許文献1は、データ分析サービスを提供する方法を開示する。特許文献1では、企業(データ保有者)が収集したデータを、トレーニングデータとして、データ分析サービス提供者に送信する。サービス提供者は、データを分析してモデル(学習済みモデル)を生成し、データ保有者に返す。これによって、データ保有者は、モデルを利用して、予測等が可能となる。更に、特許文献1は、トレーニングデータの生成時に、データ保有者の収集したデータの変数を匿名化して、企業秘密情報を保護することを開示している。
このように特許文献1では、収集したデータから生成した、企業秘密情報(特定情報)を含まないトレーニングデータを利用して機械学習を実行する。しかし、特定情報が欠落していることから、学習効果が低下する可能性がある。
米国特許出願公開第2017/0061311号明細書
課題は、情報の保護を図りながらも機械学習の学習効果を高めることができる、情報処理システム、情報処理方法、及び、プログラムを提供することである。
本開示の一態様に係る情報処理システムは、特定情報を含む第1データから第1学習成果物を生成するための情報処理システムであって、相互に通信可能な第1システム及び第2システムを備える。前記第1システムは、前記第1データを、前記特定情報を含まない第2データに変換して前記第2システムに出力する変換部を有する。前記第2システムは、前記第1システムから受け取った前記第2データを用いて機械学習を実行して第2学習成果物を生成して前記第1システムに出力する学習部を有する。前記第1システムは、前記第1データの少なくとも一部と、前記第2システムから受け取った前記第2学習成果物とに基づいて、前記第1学習成果物を得る生成部を有する。
本開示の一態様に係る情報処理方法は、特定情報を含む第1データから第1学習成果物を生成するための情報処理方法である。前記態様に係る情報処理方法は、1以上のプロセッサにおいて、前記第1データを、前記特定情報を含まない第2データに変換し、前記1以上のプロセッサにおいて、前記第2データを用いて機械学習を実行して第2学習成果物を生成し、前記1以上のプロセッサにおいて、前記第1データの少なくとも一部と前記第2学習成果物とに基づいて、前記第1学習成果物を得る。
本開示の一態様に係るプログラムは、前記1以上のプロセッサに、前記情報処理方法を実行させるための、プログラムである。
図1は、一実施形態の情報処理システムのブロック図である。 図2は、生産システムの説明図である。 図3は、上記情報処理システムで実施される変換処理の説明図である。 図4は、上記情報処理システムのシーケンス図である。
1.実施形態
1.1 概要
図1は、本実施形態の情報処理システム100を示す。情報処理システム100は、図4に示すように、特定情報を含む第1データD1から第1学習成果物R1を生成するための情報処理システムである。情報処理システム100は、相互に通信可能な第1システム10及び第2システム20を備える。第1システム10は、図1に示すように、第1データD1を、特定情報を含まない第2データD2に変換して第2システム20に出力する変換部131を有する。第2システム20は、第1システム10から受け取った第2データD2を用いて機械学習を実行して第2学習成果物R2を生成して第1システム10に出力する学習部221を有する。第1システム10は、第1データD1の少なくとも一部と、第2システム20から受け取った第2学習成果物R2とに基づいて、第1学習成果物R1を得る生成部132を有する。
以上述べた情報処理システム100では、第1システム10と通信可能な第2システム20で機械学習を実施する際に、特定情報を含む第1データD1ではなく、特定情報を含まない第2データD2を用いる。つまり、特定情報を第1システム10で保持したまま、第2システム20で機械学習が実行可能である。そのため、第2システム20では、情報の保護を気にする必要がなく、第1システム10が設置された施設とは別の施設に設置された、第1システム10よりも演算能力が高い計算資源を利用することができる。更に、第1システム10では、第2システム20からの第2学習成果物R2と第1データD1の少なくとも一部とに基づいて、第1学習成果物R1を得る。そのため、第2システム20での機械学習に用いられた第2データD2が含んでいない特定情報を第1学習成果物R1に反映できる。よって、情報処理システム100によれば、情報の保護を図りながらも機械学習の学習効果を高めることができる。
1.2 詳細
以下、情報処理システム100について図1~図4を参照して更に詳細に説明する。
情報処理システム100は、第1データD1から第1学習成果物R1を生成するための情報処理システムである(図4参照)。
第1データD1は、基板(回路基板)310に複数の電子部品320が実装された実装基板300(図2及び図3参照)を表すデータである。第1データD1は、基板310及び複数の電子部品320の形状及びサイズ、基板310及び複数の電子部品320の種類、複数の電子部品320の配置(基板310上の配置)、並びに基板310の電路の配置(回路パターン)に関する情報を含み得る。基板310の例としては、銅張積層板が挙げられる。電子部品320の例としては、抵抗器、コンデンサ、コイル、ダイオード、トランス、ICチップ、コネクタ、スイッチが挙げられる。一例として、第1データD1は、実装基板300のCADデータである。
第1学習成果物R1は、学習済みモデルと学習済みモデルからの出力との少なくとも一方を含み得る。本実施形態では、第1学習成果物R1は、第1データD1の入力に対して特定の結果を得るための学習済みモデルである。特定の結果は、生産システム200(図2参照)の制御データであって、実装基板300の生産のタクトタイムが基準を満たすデータである。生産システム200は、図2に示すように、複数(ここでは4台)の実装機211~214を備える。実装機211~214は、電子部品320を基板310の所定位置に配置する。ここで、制御データは、電子部品320の実装機211~214への振り分けに関する情報(振り分け情報)を含む。つまり、振り分け情報は、実装基板300の複数の電子部品320の各々を、どの実装機211~214で実装するかを表す。一例として、制御データは、複数の電子部品320のグループ分けの結果を示す。つまり、複数の電子部品320が、実装機211~214にそれぞれ対応する第1~第4グループに分類される。複数の電子部品320のグループ分けは、生産システム200による実装基板300の生産にかかる時間(タクトタイム)に影響し得る。タクトタイムは、電子部品と実装機との組み合わせによって決定される。一例として、タクトタイムは、電子部品をすべて実装するのに必要な実装機のノズルヘッドの総移動距離によって決まる。複数の電子部品320のグループ分けが適切に行われることで、実装基板300の生産にかかる時間が短縮され、生産効率の向上が期待できる。この観点から、第1学習成果物R1は、複数の電子部品320の最適なグループ分けの結果を示す制御データであることが望まれる。よって、情報処理システム100の第1学習成果物R1である学習済みモデルは、第1データD1の入力に対して、生産システム200による実装基板300の生産に最適な制御データを出力するように、第1データD1と制御データとの関係を学習したものである。
情報処理システム100は、図1に示すように、第1システム10と、第2システム20とを備える。第1システム10と第2システム20とは、相互に通信可能である。より詳細には、第1システム10と第2システム20とは通信ネットワーク30を介して相互に通信可能である。通信ネットワーク30は、インターネットを含み得る。通信ネットワーク30は、単一の通信プロトコルに準拠したネットワークだけではなく、異なる通信プロトコルに準拠した複数のネットワークで構成され得る。通信プロトコルは、周知の様々な有線及び無線通信規格から選択され得る。図1では簡略化されているが、通信ネットワーク30は、リピータハブ、スイッチングハブ、ブリッジ、ゲートウェイ、ルータ等のデータ通信機器を含み得る。
第1システム10は、図1に示すように、入出力部11と、通信部12と、処理部13とを備える。
入出力部11は、データの入出力のためのインタフェースである。入出力部11は、第1データD1の入力、及び、第1学習成果物R1の出力を可能とする。通信部12は、通信インタフェースである。通信部12は、通信ネットワーク30に接続可能であり、通信ネットワーク30を通じた通信を行う機能を有する。通信部12は、所定の通信プロトコルに準拠している。所定の通信プロトコルは、周知の様々な有線及び無線通信規格から選択され得る。処理部13は、第1システム10の全体的な制御、すなわち、入出力部11及び通信部12を制御するように構成される。処理部13は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部13として機能する。プログラムは、ここでは処理部13のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。このような第1システム10は、コンピュータシステムにより実現され得る。
第2システム20は、図1に示すように、通信部21と、処理部22とを備える。通信部21は、通信部12と同様に、通信ネットワーク30に接続可能であり、通信ネットワーク30を通じた通信を行う機能を有する。通信部21は、所定の通信プロトコルに準拠している。所定の通信プロトコルは、周知の様々な有線及び無線通信規格から選択され得る。処理部22は、第2システム20の全体的な制御、すなわち、通信部21を制御するように構成される。処理部22は、例えば、1以上のプロセッサ(マイクロプロセッサ)と1以上のメモリとを含むコンピュータシステムにより実現され得る。つまり、1以上のプロセッサが1以上のメモリに記憶された1以上のプログラム(アプリケーション)を実行することで、処理部22として機能する。プログラムは、ここでは処理部22のメモリに予め記録されているが、インターネット等の電気通信回線を通じて、又はメモリカード等の非一時的な記録媒体に記録されて提供されてもよい。このような第2システム20は、コンピュータシステムにより実現され得る。
第1システム10の処理部13は、図1に示すように、変換部131と、生成部132とを備える。図1において、変換部131及び生成部132は実体のある構成を示しているわけではなく、処理部13によって実現される機能を示している。また、第2システム20の処理部22は、図1に示すように、学習部221を備える。学習部221は、実体のある構成を示しているわけではなく、処理部22によって実現される機能を示している。
変換部131は、第1データD1を、第2データD2に変換して第2システム20に出力するように構成される。より詳細には、変換部131は、入出力部11を通じて第1データD1を受け取ると、第2データD2を生成して、通信部12を通じて第2システム20へ送信する。ここで、第2データD2は、第1データD1が有する特定情報を、含んでいないデータである。第1データD1は、実装基板300(図2及び図3参照)を表すデータである。第1データD1は、上述したように、基板310及び複数の電子部品320の形状及びサイズ、基板310及び複数の電子部品320の種類、基板310上の複数の電子部品320の配置、並びに基板310の電路の配置(回路パターン)に関する情報を含み得る。特定情報は、第1システム10内でのみ使用を許容し、第2システム20では使用を許容しない情報である。本実施形態では、第1データD1において、複数の電子部品320の種類、複数の電子部品320の配置、及び基板310の電路の配置に関する情報のそれぞれが、特定情報として扱われる。つまり、第2データD2は、複数の電子部品320の種類、複数の電子部品320の配置、及び基板310の電路の配置に関する情報を除けば、第1データD1と同じデータであってよい。
変換部131は、第1データD1の特定情報を、特定情報の代替となる代替情報に置き換えることで、第2データD2を生成する。つまり、第2データD2は、特定情報の代替となる代替情報を含む。ここで、代替情報は、特定情報と関連性がない情報であってもよいし、特定情報に所定の処理を実行して得られた情報であってもよい。一例として、特定情報が複数の電子部品320の種類に関する情報である場合には、代替情報は、複数の電子部品320の種類が変更された情報であってよい。この場合、変換部131は、所定の処理として、複数の電子部品320の種類を一定の規則又はランダムに変更する処理を実行する。また、特定情報が複数の電子部品320の配置に関する情報である場合には、代替情報は、複数の電子部品320の配置が変更された情報であってよい。この場合、変換部131は、所定の処理として、複数の電子部品320の配置を一定の規則又はランダムに変更する処理を実行する。また、特定情報が基板310の電路の配置に関する情報である場合には、代替情報は、特定情報と関連性がない情報(つまり、第1データD1の内容に関係がない情報)として、基板310に電路がない状態を示す情報であってよい。
図3は、変換部131による第1データD1から第2データD2への変換処理の説明図である。図3において、実装基板300は、第1データD1が示す内容に対応し、実装基板300Aは、第2データD2が示す内容に対応する。図3から明らかなように、第2データD2が示す実装基板300Aは、第1データD1が示す実装基板300とは相違している。そのため、特定情報(複数の電子部品320の種類、複数の電子部品320の配置、及び基板310の電路の配置に関する情報)を、第2データD2から取得することができないようになっている。
学習部221は、第1システム10から受け取った第2データD2を用いて機械学習を実行して第2学習成果物R2を生成して第1システム10に出力するように構成される。より詳細には、学習部221は、通信部21を通じて第1システム10から第2データD2を受け取ると、第2学習成果物R2を生成して、通信部21を通じて第1システム10へ送信する。第2学習成果物R2は、学習済みモデルと学習済みモデルからの出力との少なくとも一方を含み得る。本実施形態では、第2学習成果物R2は、第2データD2の入力に対して特定の結果を得るための学習済みモデルを含む。特定の結果は、生産システム200の制御データであって、実装基板300の生産のタクトタイムが基準を満たすデータである。機械学習としては、強化学習、特に、深層強化学習が利用される。学習部221は、機械学習により、第2データD2の入力に対して制御データを出力する学習済みモデルを生成し、出力する制御データによるタクトタイムが最も短い学習済みモデルを、第2学習成果物R2として第1システム10へ出力する。なお、機械学習の手法自体は、従来周知の手法を採用できるから、詳細な学習の仕方については説明を省略する。
生成部132は、第1データD1の少なくとも一部と、第2システム20から受け取った第2学習成果物R2とに基づいて、第1学習成果物R1を得るように構成される。より詳細には、生成部132は、通信部12を通じて第2システム20から第2学習成果物R2を受け取ると、第1データD1の少なくとも一部と第2学習成果物R2とから第1学習成果物R1を得て、第1学習成果物R1を入出力部11を通じて出力する。ここで、第1データD1の全てを用いるか一部を用いるかは、どのような第1学習成果物R1を得るかによる。本実施形態では、第2学習成果物R2は、第2データD2を用いた機械学習により得られた学習済みモデルである。生成部132は、第1データD1と第2学習成果物R2に含まれる学習済みモデルとを用いた機械学習を実行して、第1学習成果物R1を得る。機械学習としては、強化学習、特に、深層強化学習が利用される。つまり、生成部132は、機械学習のモデルとして、学習が行われてないモデル(未学習のモデル)ではなく、第2システム20で生成された学習済みモデルを利用する。そのため、第1システム10は、最初から機械学習を行うための処理能力を有していなくてもよい。機械学習としては、第2システム20の学習部221と同様に、強化学習、特に、深層強化学習が利用される。生成部132は、第2データD2に関するタクトタイムが基準を満たす学習済みモデルに対して、第1データD1を適用して、機械学習によって、第1データD1に関するタクトタイムが基準を満たす学習済みモデルを第1学習成果物R1として得る。なお、第1学習成果物R1は、学習済みモデルではなく、第1データD1に関連する処理の最適解であってもよい。一例として、第1学習成果物R1は、第1データD1用の制御データであって、タクトタイムが基準を満たすデータ(タクトタイムが最短になるデータ)であってよい。生成部132は、第1データD1と第2学習成果物R2に含まれる学習済みモデルとを用いた機械学習を実行して学習済みモデルを得、この学習済みモデルに第1データD1を入力して得られた制御データを、第1学習成果物R1として出力してよい。
1.3 動作
次に、情報処理システム100の動作について図4のシーケンス図を参照して簡単に説明する。以下の例は、ユーザ40が第1データD1を第1システム10に入力し、第1システム10から第1学習成果物R1を取得する場合の情報処理システム100の動作を示している。
ユーザ40が第1データD1を第1システム10に入力すると、第1システム10は、第1データD1を第2データD2に変換して、第2システム20へ出力する。ここで、第2データD2は、第1データD1とは異なり、特定情報が含まれていない。第2システム20は、第1システム10から第2データD2を受け取ると、第2データD2を利用して機械学習を実行し、第2学習成果物R2を得る。第2システム20は、第2学習成果物R2を第1システム10へ出力する。第1システム10は、第2システム20から第2学習成果物R2を得ると、第1データD1及び第2学習成果物R2を利用して、第1学習成果物R1を得る。そして、第1システム10は、第1学習成果物R1をユーザ40に出力する。
情報処理システム100から第1学習成果物R1を得たユーザ40は、第1学習成果物R1を利用して、第1データD1から、特定の結果を取得することが可能である。特定の結果は、生産システム200の制御データであって、実装基板300の生産のタクトタイムが基準を満たすデータである。これによって、生産システム200による実装基板300の生産効率の改善が図れる。
1.4 まとめ
以上述べたように、情報処理システム100は、特定情報を含む第1データD1から第1学習成果物R1を生成するための情報処理システムである。情報処理システム100は、相互に通信可能な第1システム10及び第2システム20を備える。第1システム10は、図1に示すように、第1データD1を、特定情報を含まない第2データD2に変換して第2システム20に出力する変換部131を有する。第2システム20は、第1システム10から受け取った第2データD2を用いて機械学習を実行して第2学習成果物R2を生成して第1システム10に出力する学習部221を有する。第1システム10は、第1データD1の少なくとも一部と、第2システム20から受け取った第2学習成果物R2とに基づいて、第1学習成果物R1を得る生成部132を有する。このように、情報処理システム100によれば、情報の保護を図りながらも機械学習の学習効果を高めることができる。
換言すれば、情報処理システム100は、下記の方法(情報処理方法)を実行しているといえる。情報処理方法は、特定情報を含む第1データD1から第1学習成果物R1を生成するための情報処理方法である。情報処理方法は、第1データD1を、特定情報を含まない第2データD2に変換し、第2データD2を用いて機械学習を実行して第2学習成果物R2を生成し、第1データD1の少なくとも一部と第2学習成果物R2とに基づいて第1学習成果物R1を生成する。このように、情報処理方法によれば、情報処理システム100と同様に、情報の保護を図りながらも機械学習の学習効果を高めることができる。
情報処理システム100は、コンピュータシステム(1以上のプロセッサ)により実現されている。つまり、情報処理システム100は、1以上のプロセッサがプログラム(コンピュータプログラム)を実行することにより実現される。このプログラムは、1以上のプロセッサに情報処理方法を実行させるためのプログラムである。このようなプログラムによれば、情報処理方法と同様に、情報の保護を図りながらも機械学習の学習効果を高めることができる。
2.変形例
本開示の実施形態は、上記実施形態に限定されない。上記実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。以下に、上記実施形態の変形例を列挙する。
一変形例では、第2学習成果物R2は、第2データD2を用いた機械学習により得られた、複数の学習成果物を含んでよい。例えば、学習部221は、機械学習により、第2データD2の入力に対して制御データを出力する学習済みモデルを生成する。学習部221は、タクトタイムが所定の基準を満たす制御データを出力する複数の学習済みモデルを、学習成果物とする。学習部221は、複数の学習済みモデル(学習成果物)を、第2学習成果物R2として第1システム10へ出力する。この場合、生成部132は、第2学習成果物R2に含まれる複数の学習済みモデルの一つを、第1学習成果物R1として採用してよい。一例として、生成部132は、第1データを利用して得られた複数の学習成果物の評価の結果に基づいて、複数の学習済みモデルから第1学習成果物R1として用いるものを選択する。生成部132は、第1データD1を複数の学習成果物に入力して制御データを得、制御データによるタクトタイムが最も短い学習成果物を、第1学習成果物R1として採用する。この場合には、生成部132は、上記実施形態とは異なり機械学習を実行する必要がないから、第1システム10での処理負荷を軽減することが可能である。
なお、複数の学習成果物は、学習済みモデルではなく、学習済みモデルから得られる制御データであってもよい。例えば、学習部221は、機械学習により、第2データD2の入力に対して制御データを出力する学習済みモデルを生成する。学習部221は、学習済みモデルにより、タクトタイムが所定の基準を満たす複数の制御データを、学習成果物として生成する。学習部221は、複数の制御データ(学習成果物)を、第2学習成果物R2として第1システム10へ出力する。この場合、生成部132は、第2学習成果物R2に含まれる複数の制御データの一つを、第1学習成果物R1として採用する。一例として、生成部132は、第1データを利用して得られた複数の学習成果物の評価の結果に基づいて、複数の制御データから第1学習成果物R1として用いるものを選択する。生成部132は、第1データD1及び制御データからタクトタイムを評価し、タクトタイムが最も短い学習成果物(制御データ)を、第1学習成果物R1として採用する。この場合、第1学習成果物R1は、学習済みモデルではなく、第1データD1に関連する処理の最適解となる。
一変形例では、変換部131は、単純に第1データD1から特定情報を除去して第2データD2を生成してよい。ただし、第1データD1及び第2データD2を同じ形式で使用できるように、特定情報を代替情報で置き換えるほうがよい。
一変形例では、制御データは、電子部品320の実装機211~214への振り分けに関する情報に代えて、あるいは加えて、電子部品320を並べる順番に関する情報と電子部品320を基板310に実装する順番に関する情報との少なくとも一方を含み得る。
一変形例では、生産システム200は、実装機以外の設備を含み得るし、実装機を有していない場合もある。要するに、生産システム200は、実装機、挿入機(高速アキシャル部品挿入機、高速ジャンパー線挿入機、高密度ラジアル部品挿入機等)、チップマウンタ、スクリーン印刷機、及び、レーザマーカの少なくとも一種類を含んでいてよい。
一変形例では、情報処理システム100は、生産システム200以外の種々のシステムのためのデータの生成にも適用可能である。例えば、情報処理システム100は、認証システムのための学習済みモデルを、第1学習成果物R1として提供可能である。一変形例では、第1学習成果物R1は、第1データD1に対して認証又は識別の結果を出力する学習済みモデルであってよい。例としては、人物の認証、人物の識別、生物(犬、猫等の動物)の識別、物体(自動車等)の識別等種々あるが、以下では、人物の識別の場合について説明する。この場合、第1データD1は、人物の画像である。特定情報は、人物のプライバシーに関する情報であってよい。特定情報の一例としては、人物の顔の一部(目元、鼻、口元)が挙げられる。第1システム10では、変換部131が第1データD1から、特定情報を含まない第2データD2を生成する。例えば、変換部131は、人物の顔の一部の画像を別の画像である代替情報に置き換えて第2データD2を生成してよい。そして、第1システム10は、第2データD2を第2システム20へ出力する。ここでは、第1システム10は、複数の第1データD1を複数の第2データD2に変換して第2システム20に出力する。そして、第2システム20では、学習部221が第2データD2を用いて機械学習を実行して学習済みモデルを生成し、第2学習成果物R2として第1システム10に出力する。ここでの機械学習としては、教師あり又は教師なしの深層学習が適宜利用され得る。第1システム10は、第1データD1及び第2学習成果物R2から第1学習成果物R1を得る。第1システム10は、第2学習成果物R2である学習済みモデルに対して第1データD1による機械学習を実行し、学習済みモデルを生成し、第1学習成果物R1として出力する。ここでの機械学習としては、第2システム20と同様に、教師あり又は教師なしの深層学習が適宜利用され得る。このように、情報処理システム100では、人物の識別のための学習済みモデルを、第1データD1の特定情報を第1システム10から第2システム20に渡すことなく、第1システム10で生成することが可能である。なお、第2システム20が第1システム10に複数の学習済みモデルを学習成果物として含む第2学習成果物R2を提供する場合、生成部132は、複数の学習済みモデルから、第1学習成果物R1として用いる学習済みモデルを選択してよい。一例として、生成部132は、複数の学習済みモデルで第1データD1を用いた人物識別を実行し、評価が最も良い学習済みモデルを、第1学習成果物R1として採用する。
より具体的には、第1データD1は、人物識別用の複数の顔画像と、複数の顔画像の各々が誰の顔であるかを示す識別情報とを含む。顔画像の数は特に限定されないが、大量の顔画像を用いることが好ましい。第1システム10は、第1データD1に含まれる顔画像のうち目の部分を黒く塗りつぶした画像と、各顔画像の識別情報とを含む第2データD2を生成し、第2システム20に出力する。この場合、特定情報は、顔画像の目の部分の情報である。第2システム20では、学習部221が第2データD2用いて機械学習を実行して人物識別用の学習モデルを生成し、第2学習成果物R2として第1システム10に出力する。また、第1システム10は、得られた第2学習成果物R2を学習済みモデルの初期値として、第1データD1を学習データとして機械学習を行い、機械学習によって更新された学習済みモデルを第1学習成果物R1として出力する。または、第1システム10は、ユーザが特定の画像について、人物識別を要求した際には更新された学習済みモデルによって得られる識別結果を第1学習成果物R1として出力してよい。なお、第1システム10は、第1データD1を第2データD2に変換するにあたって、顔画像のうち目の部分を黒く塗りつぶした画像の替わりに目の部分を共通の目の画像に置き換えた画像を用いても構わない。なお、第2学習成果物R2は、学習済みモデルではなく、ユーザが特定の画像について、人物識別を要求した際に、学習済みモデルから得られる人物識別の上位N個の候補を示す識別結果で合ってもよい。具体的には、N=3の時、第2学習成果物R2は、Xさん、Yさん、Zさんを示す識別結果であってよい。生成部132は、上位N個の候補の中から、目の特徴量(つまり、特定情報から得られる特徴量)が人物識別を要求された画像と最も近い人物の識別情報を第1学習成果物R1として出力する。ここで目の特徴量とは、顔の幅に対する目の幅の割合や、目が鼻に近い位置にあるか遠い位置にあるかを示す情報などである。上記の例では、特定情報は、顔画像の目の部分であるが、これに限定されない。特定情報は、顔画像の特定部分であってよく、特定部分の例としては、目、鼻、口、耳、眉等、及び、これらの組み合わせが挙げられる。
一変形例では、情報処理システム100は、複数の第1システム10を備えていてよい。この場合、各第1システム10において特定情報が保持され、第2システム20に送信されることがない。したがって、複数の第1システム10を異なるユーザが利用する場合でも、適切に情報の保護が図れ、第2システム20には機械学習のために演算能力が高いコンピュータシステムを利用できる。また、個々の第1システム10が異なる組織又は運営者によって運営されていて、かつ、個々の第1システム10が保持する教師データが少ない場合にも、第2システム20では複数の第1システムの第1データD1を集めて学習を行う事ができる。そのため、学習の性能を高める事ができる。
一変形例では、情報処理システム100としては、患者の診断用画像(例えば、レントゲン画像、CT画像、MRI画像、及び病理画像)と、その患者の識別情報(例えば、患者の年齢、及び人種等)とを含むカルテ情報から、患者の病名を識別するシステムが考えられる。罹患者数が極めて少ない疾患については、大量のカルテ情報の収集が困難である。また、カルテ情報に含まれる患者の年齢や人種の情報と、その患者の病名が分かると、該当者が少ない事より、そのカルテがどの患者のものかを特定されてしまう恐れがある。
より具体的には、情報処理システム100は、カルテ情報から患者の病名を推定するシステムである。第1データD1はカルテ情報と、そのカルテ情報の患者の病名を示す識別情報からなる学習データである。第1システム10は、第1データD1から患者のプライバシーの特定に関わる年齢、人種に関する情報を特定情報として除去した情報である第2データD2を生成し、第2システム20に出力する。第2システム20では、学習部221が第2データD2用いた病名識別用の学習モデルを生成し、第2学習成果物R2として第1システム10に出力する。第1システム10は、ユーザが指定したカルテ情報について、第2学習成果物R2として得た学習済みモデルから得られる病名の上位N個の候補を取得する。第1システム10は、上記N個の候補を、ユーザが指定したカルテ情報の年齢の患者がかかりやすい順番に並び替えて第1学習成果物R1として出力する。これに代えて、又は加えて、第1システム10は、上位N個の候補を、ユーザが指定したカルテ情報の人種の患者がかかりやすい順番に並び替えて第1学習成果物R1として出力してよい。なお、各年齢又は人種でかかりやすい病名の順番は予めデータベースとして保持される。
なお、第1システム10は、第2学習成果物R2である学習済みモデルの入力層に患者の年齢及び患者の人種を含む識別情報を加えたネットワークを、第1データD1で学習させるシステムであっても構わない。一般に画像を入力として識別を行うディープラーニングには畳み込みニューラルネットワーク(CNN)が用いられる。CNNは、畳み込み層及びプーリング層により入力画像から特徴マップを作成する第1パートと、全結合層により特徴マップから最終的な出力を得る第2パートとで構成されるネットワークである。本変形例では、第2システム20は、第2学習成果物R2として、レントゲン画像を入力画像に用いてCNNを利用した学習済みモデルを構成する。第1システム10においては、第1データD1を用いて機械学習を行う際は、第2学習成果物R2を元に、第2学習成果物R2とは構造が異なるネットワークを構築し、機械学習を行う。生成部132は、第1学習成果物R1として、レントゲン画像に加えて、患者の年齢及び人種を示す識別情報も入力とするネットワークを構築する。生成部132で構築するネットワークも、第2学習成果物R2と同様にCNNであり、第1パートと第2パートとで構成される。第1学習成果物R1の第1パートは、第2学習成果物R2の第1パートと同じである。一方、第1学習成果物R1の第2パートは、第1パートで得られる特徴マップに加えて、患者の年齢と患者の人種とを示す識別情報を入力として用いる。生成部132は、第1データD1を用いて機械学習を行い、第1学習成果物R1を生成する。
一変形例では、情報処理システム100(第1システム10及び第2システム20)は、複数のコンピュータにより構成されていてもよい。例えば、情報処理システム100の機能(特に、変換部131及び生成部132、並びに学習部221)は、複数の装置に分散されていてもよい。更に、第2システム20の機能の少なくとも一部が、例えば、クラウド(クラウドコンピューティング)によって実現されていてもよい。ただし、第1システム10については、情報の保護の観点から、クラウド(クラウドコンピューティング)を利用しないことが望ましい。
以上述べた情報処理システム100(第1システム10及び第2システム20)の実行主体は、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを有する。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における情報処理システム100の実行主体としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されていてもよいが、電気通信回線を通じて提供されてもよい。また、プログラムは、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的な記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1乃至複数の電子回路で構成される。LSIの製造後にプログラムされる、フィールド・プログラマブル・ゲート・アレイ(FGPA)、ASIC(application specific integrated circuit)、又はLSI内部の接合関係の再構成又はLSI内部の回路区画のセットアップができる再構成可能な論理デバイスも同じ目的で使うことができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。
3.態様
上記実施形態及び変形例から明らかなように、本開示は、下記の態様を含む。以下では、実施形態との対応関係を明示するためだけに、符号を括弧付きで付している。
第1の態様は、特定情報を含む第1データ(D1)から第1学習成果物(R1)を生成するための情報処理システム(100)であって、相互に通信可能な第1システム(10)及び第2システム(20)を備える。前記第1システム(10)は、前記第1データ(D1)を、前記特定情報を含まない第2データ(D2)に変換して前記第2システム(20)に出力する変換部(131)を有する。前記第2システムは、前記第1システム(10)から受け取った前記第2データ(D2)を用いて機械学習を実行して第2学習成果物(R2)を生成して前記第1システム(10)に出力する学習部(221)を有する。前記第1システム(10)は、前記第1データ(D1)の少なくとも一部と、前記第2システム(20)から受け取った前記第2学習成果物(R2)とに基づいて、前記第1学習成果物(R1)を得る生成部(132)を有する。この態様によれば、情報の保護を図りながら、情報の保護を図りながらも機械学習の学習効果を高めることができる。
第2の態様は、第1の態様の情報処理システム(100)に基づく。第2の態様では、前記第2学習成果物(R2)は、前記第2データ(D2)を用いた機械学習により得られた学習済みモデルを含む。情報の保護を図りながらも機械学習の学習効果を高めることができる。
第3の態様は、第2の態様の情報処理システム(100)に基づく。第3の態様では、前記生成部(132)は、前記第1データ(D1)と前記第2学習成果物(R2)に含まれる学習済みモデルとを用いた機械学習を実行する。この態様によれば、第2システム(20)で生成された学習済みモデルを元に第1データ(D1)により適した学習済みモデルを生成できる。
第4の態様は、第1の態様の情報処理システム(100)に基づく。第4の態様では、前記第2学習成果物(R2)は、前記第2データ(D2)を用いた機械学習により得られた、複数の学習成果物を含む。この態様によれば、情報の保護を図りながらも機械学習の学習効果を高めることができる。
第5の態様は、第4の態様の情報処理システム(100)に基づく。第5の態様では、前記第1学習成果物(R1)は、前記第1データ(D1)を利用して得られた前記複数の学習成果物の評価の結果に基づいて、前記複数の学習成果物から選択される。この態様によれば、第1システム(10)での処理負荷を軽減できる。
第6の態様は、第1~第5の態様のいずれか一つの情報処理システム(100)に基づく。第6の態様では、前記第2データ(D2)は、前記特定情報の代替となる代替情報を含む。この態様によれば、第1データ(D1)の、第2学習成果物(R2)への適用が容易になる。
第7の態様は、第6の態様の情報処理システム(100)に基づく。第7の態様では、前記代替情報は、前記特定情報と関連性がない情報である。この態様によれば、情報の更なる保護が図れる。
第8の態様は、第6の態様の情報処理システム(100)に基づく。第8の態様では、前記代替情報は、前記特定情報に所定の処理を実行して得られた情報である。この態様によれば、情報の更なる保護が図れる。
第9の態様は、第1~第8の態様のいずれか一つの情報処理システム(100)に基づく。第9の態様では、前記第1学習成果物(R1)は、前記第1データ(D1)の入力に対して特定の結果を得るための学習済みモデル、又は、前記第1データ(D1)に関連する処理の最適解である。この態様によれば、情報の保護を図りながらも機械学習の学習効果を高めることができる。
第10の態様は、第1~第9の態様のいずれか一つの情報処理システム(100)に基づく。第10の態様では、前記第1データ(D1)は、基板(310)に複数の電子部品(320)が実装された実装基板(300)の表すデータである。前記特定情報は、前記複数の電子部品(320)の種類に関する情報、前記複数の電子部品(320)の配置に関する情報、及び前記基板(310)の電路の配置に関する情報の少なくとも1つを含む。この態様によれば、実装基板(300)の生産を最適化するためのデータを取得できる。
第11の態様は、第1~第10の態様のいずれか一つの情報処理システム(100)に基づく。第11の態様では、前記情報処理システム(100)は、複数の前記第1システム(10)を備える。情報の保護を図りながらも機械学習の学習効果を高めることができる。
第12の態様は、コンピュータシステムであって、第1~第11の態様のいずれか一つの情報処理システム(100)の第1システム(10)として機能する。この態様によれば、情報の保護を図りながらも機械学習の学習効果を高めることができる。
第13の態様は、コンピュータシステムであって、第1~第11の態様のいずれか一つの情報処理システム(100)の第2システム(20)として機能する。この態様によれば、情報の保護を図りながらも機械学習の学習効果を高めることができる。
第14の態様は、特定情報を含む第1データ(D1)から第1学習成果物(R1)を生成するための情報処理方法である。前記情報処理方法は、前記第1データ(D1)を、前記特定情報を含まない第2データ(D2)に変換する。前記情報処理方法は、前記第2データ(D2)を用いて機械学習を実行して第2学習成果物(R2)を生成する。前記情報処理方法は、前記第1データ(D1)と前記第2学習成果物(R2)とに基づいて、前記第1学習成果物(R1)を得る。この態様によれば、情報の保護を図りながらも機械学習の学習効果を高めることができる。特に、第14の態様では、前記情報処理方法は、前記第1データ(D1)を、第1システム(10)によって、前記特定情報を含まない第2データ(D2)に変換する。前記情報処理方法は、前記第1システム(10)とは別の第2システム(20)によって、前記第2データ(D2)を用いて機械学習を実行して第2学習成果物(R2)を生成する。更に、前記情報処理方法は、前記第1システム(10)によって、前記第1データ(D1)の少なくとも一部と前記第2学習成果物(R2)とに基づいて、前記第1学習成果物(R1)を得てよい。この態様によれば、情報の保護を図りながらも機械学習の学習効果を高めることができる。
第15の態様は、1以上のプロセッサに、第14の態様の情報処理方法を実行させるための、プログラムである。この態様によれば、情報の保護を図りながらも機械学習の学習効果を高めることができる。
100 情報処理システム
10 第1システム
131 変換部
132 生成部
20 第2システム
221 学習部
300 実装基板
310 基板
320 電子部品
D1 第1データ
R1 第1学習成果物
D2 第2データ
R2 第2学習成果物

Claims (13)

  1. 特定情報を含む第1データから第1学習成果物を生成するための情報処理システムであって、
    相互に通信可能な第1システム及び第2システムを備え、
    前記第1システムは、前記第1データを、前記特定情報を含まない第2データに変換して前記第2システムに出力する変換部を有し、
    前記第2システムは、前記第1システムから受け取った前記第2データを用いて機械学習を実行して第2学習成果物を生成して前記第1システムに出力する学習部を有し、
    前記第1システムは、前記第1データの少なくとも一部と、前記第2システムから受け取った前記第2学習成果物とに基づいて、前記第1学習成果物を得る生成部を有する、
    情報処理システム。
  2. 前記第2学習成果物は、前記第2データを用いた機械学習により得られた学習済みモデルを含む、
    請求項1の情報処理システム。
  3. 前記生成部は、前記第1データと前記第2学習成果物に含まれる学習済みモデルとを用いた機械学習を実行する、
    請求項2の情報処理システム。
  4. 前記第2学習成果物は、前記第2データを用いた機械学習により得られた、複数の学習成果物を含む、
    請求項1の情報処理システム。
  5. 前記第1学習成果物は、前記第1データを利用して得られた前記複数の学習成果物の評価の結果に基づいて、前記複数の学習成果物から選択される、
    請求項4の情報処理システム。
  6. 前記第2データは、前記特定情報の代替となる代替情報を含む、
    請求項1~5のいずれか一つの情報処理システム。
  7. 前記代替情報は、前記特定情報と関連性がない情報である、
    請求項6の情報処理システム。
  8. 前記代替情報は、前記特定情報に所定の処理を実行して得られた情報である、
    請求項6の情報処理システム。
  9. 前記第1学習成果物は、前記第1データの入力に対して特定の結果を得るための学習済みモデル、又は、前記第1データに関連する処理の最適解である、
    請求項1~8のいずれか一つの情報処理システム。
  10. 前記第1データは、基板に複数の電子部品が実装された実装基板を表すデータであり、
    前記特定情報は、前記複数の電子部品の種類に関する情報、前記複数の電子部品の配置に関する情報、及び前記基板の電路の配置に関する情報の少なくとも1つを含む、
    請求項1~9のいずれか一つの情報処理システム。
  11. 複数の前記第1システムを備える、
    請求項1~10のいずれか一つの情報処理システム。
  12. 特定情報を含む第1データから第1学習成果物を生成するための情報処理方法であって、
    1以上のプロセッサにおいて、前記第1データを、前記特定情報を含まない第2データに変換し、
    前記1以上のプロセッサにおいて、前記第2データを用いて機械学習を実行して第2学習成果物を生成し、
    前記1以上のプロセッサにおいて、前記第1データの少なくとも一部と前記第2学習成果物とに基づいて、前記第1学習成果物を得る、
    情報処理方法。
  13. 前記1以上のプロセッサに、請求項12の情報処理方法を実行させるための、
    プログラム。
JP2021508815A 2019-03-27 2020-02-21 情報処理システム、情報処理方法、及び、プログラム Active JP7308466B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019061933 2019-03-27
JP2019061933 2019-03-27
PCT/JP2020/007006 WO2020195419A1 (ja) 2019-03-27 2020-02-21 情報処理システム、コンピュータシステム、情報処理方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JPWO2020195419A1 JPWO2020195419A1 (ja) 2020-10-01
JP7308466B2 true JP7308466B2 (ja) 2023-07-14

Family

ID=72609233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021508815A Active JP7308466B2 (ja) 2019-03-27 2020-02-21 情報処理システム、情報処理方法、及び、プログラム

Country Status (4)

Country Link
US (1) US20220172116A1 (ja)
JP (1) JP7308466B2 (ja)
CN (1) CN113614754A (ja)
WO (1) WO2020195419A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170061311A1 (en) 2015-08-27 2017-03-02 Li Liu Method for providing data analysis service by a service provider to data owner and related data transformation method for preserving business confidential information of the data owner
WO2018142764A1 (ja) 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 学習済みモデル生成方法、学習済みモデル生成装置、および学習済みモデル利用装置
JP2020010217A (ja) 2018-07-10 2020-01-16 Kddi株式会社 識別要求元のアクセス制御が可能なデータ識別装置、システム、プログラム及び方法
JP2020035066A (ja) 2018-08-28 2020-03-05 株式会社Ye Digital 情報秘匿化方法、情報秘匿化プログラム、情報秘匿化装置および情報提供システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201626279A (zh) * 2015-01-06 2016-07-16 緯創資通股份有限公司 保護方法與其電腦系統
GB201610883D0 (en) * 2016-06-22 2016-08-03 Microsoft Technology Licensing Llc Privacy-preserving machine learning
JP6926429B2 (ja) * 2016-09-27 2021-08-25 日本電気株式会社 データ処理装置、データ処理方法、およびプログラム
US11080616B2 (en) * 2016-09-27 2021-08-03 Clarifai, Inc. Artificial intelligence model and data collection/development platform

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170061311A1 (en) 2015-08-27 2017-03-02 Li Liu Method for providing data analysis service by a service provider to data owner and related data transformation method for preserving business confidential information of the data owner
WO2018142764A1 (ja) 2017-02-03 2018-08-09 パナソニックIpマネジメント株式会社 学習済みモデル生成方法、学習済みモデル生成装置、および学習済みモデル利用装置
JP2020010217A (ja) 2018-07-10 2020-01-16 Kddi株式会社 識別要求元のアクセス制御が可能なデータ識別装置、システム、プログラム及び方法
JP2020035066A (ja) 2018-08-28 2020-03-05 株式会社Ye Digital 情報秘匿化方法、情報秘匿化プログラム、情報秘匿化装置および情報提供システム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宇根正志(外1名),「機械学習システムの脆弱性と対応策にかかる研究動向について」,コンピュータセキュリティシンポジウム2018論文集,Vol.2018, No.2,一般社団法人情報処理学会,2018年10月15日,Pages 193-200
田中哲士(外2名),「秘密分散ベース秘密計算を用いたニューラルネットワークのコスト評価」,電子情報通信学会技術研究報告,2016年05月19日,Vol.116, No.6,Pages 119-126,ISSN: 0913-5685

Also Published As

Publication number Publication date
CN113614754A (zh) 2021-11-05
JPWO2020195419A1 (ja) 2020-10-01
WO2020195419A1 (ja) 2020-10-01
US20220172116A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
CN106339571B (zh) 用于分类医学图像数据组的人工神经网络
Mori et al. MRICloud: delivering high-throughput MRI neuroinformatics as cloud-based software as a service
US20180032801A1 (en) Inferring body position in a scan
Wang et al. Faces a la carte: Text-to-face generation via attribute disentanglement
JP2015531111A (ja) 状態機械エンジンが受信したデータを取り扱うための方法およびシステム
JP4644586B2 (ja) セラミック集積回路パッケージにおいて電力分配システムを機能強化するための方法及びプログラム
WO2020016736A1 (en) Knockout autoencoder for detecting anomalies in biomedical images
Zheng et al. TeethGNN: semantic 3D teeth segmentation with graph neural networks
JPWO2012032788A1 (ja) 排他的分類器による一般物体の画像認識装置及び方法
CN103262103A (zh) 用于情景分析的处理器
Abdi et al. Variational shape completion for virtual planning of jaw reconstructive surgery
US20150120629A1 (en) Neuron learning type integrated circuit device
JP7308466B2 (ja) 情報処理システム、情報処理方法、及び、プログラム
CN109685805A (zh) 一种图像分割方法及装置
CN111968137A (zh) 头部ct图像分割方法、装置、电子设备及存储介质
CN112567466A (zh) 诊断结果生成系统及其方法
Li et al. Anatomy completor: A multi-class completion framework for 3D anatomy reconstruction
Kaur Chahal et al. An efficient Hadoop‐based brain tumor detection framework using big data analytic
US20210142342A1 (en) Methods and systems for provisioning digital data to an individual
CN108763260A (zh) 一种试题搜索方法、系统及终端设备
Shah et al. Evaluating explanations of convolutional neural network image classifications
US20180032556A1 (en) Preprocessing image data based on scan protocols
CN109726306A (zh) 患者数据存储方法、装置、设备和存储介质
CN113239190B (zh) 文档分类方法、装置、存储介质及电子设备
US20210343049A1 (en) Composite Imagery Rendering in Diminished Reality Environment for Medical Diagnosis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221229

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230501

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R151 Written notification of patent or utility model registration

Ref document number: 7308466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151