JP2019185134A - 情報処理装置、学習方法、及びプログラム - Google Patents

情報処理装置、学習方法、及びプログラム Download PDF

Info

Publication number
JP2019185134A
JP2019185134A JP2018071117A JP2018071117A JP2019185134A JP 2019185134 A JP2019185134 A JP 2019185134A JP 2018071117 A JP2018071117 A JP 2018071117A JP 2018071117 A JP2018071117 A JP 2018071117A JP 2019185134 A JP2019185134 A JP 2019185134A
Authority
JP
Japan
Prior art keywords
conversion
neural network
input
input data
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018071117A
Other languages
English (en)
Other versions
JP6961527B2 (ja
Inventor
和英 福島
Kazuhide Fukushima
和英 福島
清良 披田野
Seira Hidano
清良 披田野
清本 晋作
Shinsaku Kiyomoto
晋作 清本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018071117A priority Critical patent/JP6961527B2/ja
Publication of JP2019185134A publication Critical patent/JP2019185134A/ja
Application granted granted Critical
Publication of JP6961527B2 publication Critical patent/JP6961527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】通信ネットワークを介して学習モデルを利用する際の情報漏洩を抑制する。【解決手段】目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する情報処理装置1において、入力変換部110は、ニューラルネットワークに入力する入力データを所定の変換手続きで変換して変換入力データを生成する。重み更新部111は、入力変換部110が生成した変換入力データを入力データとしてニューラルネットワークの各層の重みを更新する。ここで、入力変換部110が実行する所定の変換手続きは、変換前の空間における任意の2点間の距離と、変換後の空間における2点間の距離とが、定数倍の関係となる変換手続きである。【選択図】図3

Description

本発明は情報処理装置、学習方法、及びプログラムに関し、特にニューラルネットワークを用いた機械学習技術に関する。
近年、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)の高速化、メモリの大容量化、及びニューラルネットワークを用いた機械学習技術が急速に進んできている。このため、数十万から百万といったオーダーの学習データを用いる機械学習が可能となり、精度の高い識別技術や分類技術が確立されつつある(非特許文献1参照)。
Yangqing Jia, Evan Shelhamer, Jeff Donahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, and Trevor Darrell. Caffe: Convolutional architecture for fast feature embedding. In Proceedings of the 22nd ACM international conference on Multimedia (pp. 675-678). ACM.
大量の学習データに基づく機械学習を実行するためには大量の計算コストがかかる。また、大量の学習データを用意すること、及び用意した学習データを機械学習に用いるためにする前処理にも膨大な労力を要する。学習モデルを生成したモデル作成者は、コストをかけて作成した学習モデルをクラウド上に構築し、通信ネットワークを介して学習モデルをユーザに利用させることで利益を得ることも行われるようになってきている。
学習モデルの入力データや出力データにプライバシ情報が含まれる場合には、通信ネットワークを介してそのような情報を送受信することになる。これは、プライバシ情報が漏洩する可能性がある。
本発明はこれらの点に鑑みてなされたものであり、通信ネットワークを介して学習モデルを利用する際の情報漏洩を抑制する技術を提供することを目的とする。
本発明の第1の態様は、情報処理装置である。この装置は、目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する情報処理装置である。この装置は、前記ニューラルネットワークに入力する入力データを所定の変換手続きで変換して変換入力データを生成する入力変換部と、前記入力変換部が生成した変換入力データを入力データとして前記ニューラルネットワークの各層の重みを更新する重み更新部と、を備える。前記入力変換部が実行する所定の変換手続きは、変換前の空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きである。
前記情報処理装置は、前記ニューラルネットワークの出力層が出力した出力ベクトルを、当該出力ベクトルが存在する空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きで、前記出力ベクトルを変換して変換出力ベクトルを生成する出力変換部をさらに備えてもよい。
前記目的タスクはカラー画像を対象とする画像認識タスクであってもよく、前記入力変換部は、前記カラー画像の各画素の特徴を特定するための複数の変数を座標軸とする空間において、前記所定の変換手続きを実行してもよい。
前記所定の変換手続きは、拡大変換、縮小変換、等長変換、及び並行移動変換のいずれか一つの変換、又は2以上の変換の合成変換であってもよい。
本発明の第2の態様も、目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する情報処理装置である。この装置は、目的タスク学習用データを入力データとして前記ニューラルネットワークの各層の重みを更新する重み更新部と、前記ニューラルネットワークの出力層が出力した出力ベクトルを、当該出力ベクトルが存在する空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きで、前記出力ベクトルを変換して変換出力ベクトルを生成する出力変換部と、を備える。
本発明の第3の態様は、目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する情報処理装置のプロセッサが実行する学習方法である。この方法において、前記プロセッサが、前記ニューラルネットワークに入力する入力データを所定の変換手続きで変換して変換入力データを生成するステップと、生成した前記変換入力データを入力データとして前記ニューラルネットワークの各層の重みを更新するステップと、を実行する。前記生成するステップにおける所定の変換手続きは、変換前の空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きである。
本発明の第4の態様は、プログラムである。このプログラムは、目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する情報処理装置に、前記ニューラルネットワークに入力する入力データを所定の変換手続きで変換して変換入力データを生成する機能と、生成した前記変換入力データを入力データとして前記ニューラルネットワークの各層の重みを更新する機能と、を実現させる。前記生成する機能における所定の変換手続きは、変換前の空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きである。
本発明によれば、本発明はこれらの点に鑑みてなされたものであり、通信ネットワークを介して学習モデルを利用する際の情報漏洩を抑制することができる。
実施の形態に係るニューラルネットワークの構成を模式的に示す図である。 実施の形態に係る学習モデル実行システムの概要を模式的に示す図である。 実施の形態に係る情報処理装置の機能構成を模式的に示す図である。 実施の形態に係る入力変換部及び出力変換部が実施する変換手続きを説明するための図である。 実施の形態に係る入力変換部が実施する変換手続きの別の例を説明するための図である。 実施の形態に係る情報処理装置が実行する学習処理の流れを説明するためのフローチャートである。
<実施の形態の概要>
図1は、実施の形態に係るニューラルネットワークの構成を模式的に示す図である。また、図2は、実施の形態に係る学習モデル実行システムSの概要を模式的に示す図である。以下、図1及び図2を参照して、実施の形態の概要を述べる。
実施の形態に係る情報処理装置が学習モデルを生成するために利用するニューラルネットワークは、全体としては、入力層、中間層、及び出力層を含む一般的な構成である。図1に示すように、実施の形態に係る情報処理装置は、入力層に入力した学習用データが中間層を伝搬し、最終的に出力層が出力したデータ列と、学習用データに対応する正解ラベルとの誤差を損失関数を用いて算出する。情報処理装置は、算出した誤差に基づいて、誤差逆伝搬法を用いて中間層に設定された重みを更新する。
ここで、実施の形態に係る情報処理装置は、学習用データを入力層に入力する前に所定の変換手続きで学習用データを変換する「入力変換」と、出力層が出力したデータを所定の変換手続きで変換する「出力変換」との、少なくともいずれか一方の変換を実施する。
なお、図1は、情報処理装置が入力変換と出力変換とのいずれの変換も実施している場合の例を示している。詳細は後述するが、可読可能な情報を情報処理装置が入力変換すると、変換後の情報は可読が困難な情報となる。出力変換も同様である。また、学習データを入力変換してもニューラルネットワークの学習に影響がないように、入力変換は設計されている。
図2に示すように、実施の形態に係る学習モデル実行システムSは、通信ネットワークNを介して互いに通信可能な態様で接続する情報処理装置1とユーザ端末2とを含む。ユーザ端末2は、情報処理装置1から入力API(Application Program Interface)と出力APIとの提供を受けている。ユーザ端末2は、入力APIを利用することにより、通信ネットワークNを介して処理対象とするデータを情報処理装置1に送信することができる。また、ユーザ端末2は、出力APIを利用することにより、通信ネットワークNを介して情報処理装置1から学習モデルの実行結果を受信することができる。
入力APIは、情報処理装置1が学習モデルを生成する際に実施した入力変換と同じ変換を処理対象データに施し、変換後の処理対象データを通信ネットワークNを介して情報処理装置1に送信する。変換後の処理対象データは可読ではないため、通信ネットワークNを介して情報処理装置1に送信中にデータが漏洩したとしても、データから情報が読み出されることを抑制できる。
また、出力APIは、情報処理装置1が出力変換を施した後に学習モデルの出力結果をユーザ端末2に送信する場合には、取得した出力結果に対して出力変換の逆変換を施す。これにより、ユーザ端末2は、可読が困難な状態で通信された出力結果を可読な情報に戻すことができる。
このように、実施の形態に係る情報処理装置1が生成する学習モデルは、通信ネットワークを介して学習モデルを利用する際の情報漏洩を抑制することができる。さらに、入力変換を施す入力APIを持たない第三者が、何らかの手段で処理対象データをオンラインの学習モデルに入力したとしても、正しい処理結果を得ることができない。これにより、実施の形態に係る情報処理装置1が生成する学習モデルは、学習モデルの不正な利用も抑制することができる。
<実施の形態に係る情報処理装置1の機能構成>
図3は、実施の形態に係る情報処理装置1の機能構成を模式的に示す図である。情報処理装置1は目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する装置であり、記憶部10と制御部11とを備える。
記憶部10は、情報処理装置1を実現するコンピュータのBIOS(Basic Input Output System)等を格納するROM(Read Only Memory)や情報処理装置1の作業領域となるRAM(Random Access Memory)、OS(Operating System)やアプリケーションプログラム、当該アプリケーションプログラムの実行時に参照される種々の情報を格納するHDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置である。
制御部11は、情報処理装置1のCPUやGPU等のプロセッサであり、記憶部10に記憶されたプログラムを実行することによって入力変換部110、重み更新部111、出力変換部112として機能する。
なお、図3は、情報処理装置1が単一の装置で構成されている場合の例を示している。しかしながら、情報処理装置1は、例えばクラウドコンピューティングシステムのように複数のプロセッサやメモリ等の計算リソースによって実現されてもよい。この場合、制御部11を構成する各部は、複数の異なるプロセッサの中の少なくともいずれかのプロセッサがプログラムを実行することによって実現される。
入力変換部110は、ニューラルネットワークに入力する入力データを所定の変換手続きで変換して変換入力データを生成する。具体的には、入力変換部110が実行する変換手続きは、変換前の空間における任意の2点間の距離と、変換後の空間において対応する2点間の距離とが、定数倍(0倍を除く)の関係となる変換手続きである。
図4は、実施の形態に係る入力変換部110及び出力変換部112が実施する変換手続きを説明するための図である。図4において、入力データIは図1に示す入力データを示している。入力データIはベクトルで表現することができ、図4に示す例では、N1からNnまでのn個の要素で構成されているn次元ベクトルである。
任意のn次元ベクトルは、m(1≦m≦n)番目の要素が1で、他の要素が0であるn個の規定ベクトルを軸とするn次元直交座標系における1点として表現することができる。図4において、N1軸の規定ベクトルは(1,0,・・・,0)であり、N2軸の規定ベクトルは(0,1,0,・・・,0)である。以下同様である。
n次元直交座標系の原点をOとし、n次元空間における異なる2点をそれぞれ点A及び点Bとする。また、入力変換部110による変換後の点A及び点Bをそれぞれ点A’及び点B’とする。n次元空間における点Aと点Bとの距離をD(A,B)とすると、入力変換部110及び出力変換部112が実施する変換手続きは、任意の点A及び点Bについて、kを0以外の実数としたとき、以下の式(1)が成り立つ。
D(A,B)=kD(A’,B’) (1)
このような変換手続きの例は、拡大変換、縮小変換、等長変換(回転又は反転)、及び並行移動変換のいずれか一つの変換、又は2以上の変換の合成変換である。
図4において、線分OAの長さD(O,A)をa、線分OBの長さD(O,B)をb、線分ABの長さD(A,B)をcとする。同様に、線分OA’の長さD(O,A’)をa’、線分OB’の長さD(O,B’)をb’、線分A’B’の長さD(A’,B’)をc’とする。また、角AOBをθ、角A’OB’をθ’とする。このとき、余弦定理より、以下の式(2)及び式(3)が成り立つ。
cosθ=(a+b−c)/(2ab) (2)
cosθ’=(a’+b’−c’)/(2a’b’) (3)
が成り立つ。
入力変換部110及び出力変換部112が実施する変換手続きでは、n次元空間における任意の2点について式(1)が成り立つので、a’=ka、b’=kb、c’=kcが成り立つ。これらを式(3)に代入すると、以下の式(4)を得る。
cosθ’=((ka)+(kb)−(kc))/(2kakb)
=(a+b−c)/(2ab)
=cosθ (4)
式(4)は、入力変換部110及び出力変換部112が実施する変換手続きでは角度が保存されることを示している。ここで、重み更新部111は、入力変換部110が生成した変換入力データを入力データとして、既知の誤差逆伝搬法を用いてニューラルネットワークの各層の重みを更新する。
既知の技術のため詳細は省略するが、誤差逆伝搬法は、n次元空間における損失関数の勾配に基づいて、その損失関数の極値を求める問題に属する。損失関数の勾配は、いわばn次元空間における損失関数の「傾き角」を示している。誤差逆伝搬法は、損失関数の「傾き角」が大きい方向を選んでn次元空間における損失関数の「坂道」を進み、極値に到達するように設計されたアルゴリズムともいえる。
式(4)に示すように、実施の形態に係る入力変換部110及び出力変換部112が実施する変換手続きでは角度が保存される。これは、入力変換部110及び出力変換部112が実施する変換手続きによっても、損失関数の「傾き角」が変化しないことを意味する。したがって、実施の形態に係る入力変換部110が実施する変換手続きを入力データに施しても、重み更新部111は、変換手続きが施されない場合と同様に学習することができる。
また、実施の形態に係る出力変換部112が出力データに変換手続きを施しても、変換自体によって出力データの形が歪められないことが保証される。したがって、出力変換部112は、ニューラルネットワークの出力層が出力した出力ベクトルを、その出力ベクトルが存在する空間における任意の2点間の距離と、変換後の空間における2点間の距離とが定数倍の関係となる変換手続きで、出力ベクトルを変換して変換出力ベクトルを生成してもよい。これにより、万が一出力結果が通信ネットワークNにおいて第三者に傍受されたとしても、出力APIを保持していない第三者が変換出力ベクトルから情報を抜き出すことを抑制できる。
図5(a)−(b)は、実施の形態に係る入力変換部110が実施する変換手続きの別の例を説明するための図である。具体的には、図5(a)はカラー画像の画素の構造を模式的に示す図であり、図5(b)は色空間における変換手続きを模式的に示す図である。
図5(a)に示すように、デジタルカラー画像の多くは赤(R)、緑(G)、及び青(B)の三色で一画素が構成されている。図示はしないが、この他にも例えばYCbCr等の式差信号を用いて表現されている場合でも、一画素は複数の信号成分を示す複数の変数から構成されている。
例えば、カラー画像の各画素がRGB三色の組み合わせで表現されているとする。この場合、カラー画像の各画素は、R、G、及びBの各色を座標軸とする3次元空間内の一点として表現される。例えば、R、G、及びBの各色の輝度値がそれぞれ64、128、192である画素は、R、G、及びBの各色を座標軸とする3次元空間内の点(64,128,192)に対応する。
図5(b)に示すように、入力変換部110は、目的タスクがカラー画像を対象とする画像認識タスクである場合、カラー画像の各画素の特徴を特定するための複数の変数を座標軸とする空間において、上述した変換手続きを実行してもよい。これにより、変換後の画像は変換前の画像と比較すると色相、彩度、及び輝度のバランスが崩れるので、入力変換部110は入力データの可読性を低下させることができる。
<情報処理装置1が実行する学習方法の処理フロー>
図6は、実施の形態に係る情報処理装置1が実行する学習処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置1が起動したときに開始する。
入力変換部110は、目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成するための学習に用いる入力データを取得する(S2)。入力変換部110は、取得した入力データを所定の手続きで変換する(S4)。なお、入力変換部110が実行する所定の変換手続きは、変換前の空間における任意の2点間の距離と、変換後の空間における2点間の距離とが、定数倍の関係となる変換手続きである。
重み更新部111は、入力変換部110が生成した変換入力データを入力データとしてニューラルネットワークの各層の重みを更新する(S6)。入力変換部110は、ニューラルネットワークの出力層の出力と、正解ラベルとに基づいて損失関数を用いて算出した誤差が、更新終了の条件を満たすまでの間(S8のNo)、重みの更新を継続する。
ニューラルネットワークの出力層の出力と、正解ラベルとに基づいて損失関数を用いて算出した誤差が、更新終了の条件を満たすと(S8のYes)、重み更新部111はニューラルネットワークの各層の重みから構成されるモデルパラメータと、通信ネットワークNを介してニューラルネットワークにアクセスするための入力API及び出力APIとを、モデルパラメータのユーザに提供する(S10)。
入力変換部110がモデルパラメータと各種APIとをユーザに提供すると、本フローチャートにおける処理は終了する。
<実施の形態に係る情報処理装置1が奏する効果>
以上説明したように、実施の形態に係る情報処理装置1によれば、通信ネットワークNを介して学習モデルを利用する際の情報漏洩を抑制することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。
<変形例>
上記では、入力変換部110がニューラルネットワークに入力する入力データを所定の変換手続きで変換する場合について主に説明した。しかしながら、入力データは秘匿すべき情報ではなく、出力結果が秘匿すべき情報である場合には、入力変換部110は入力変換せずに出力変換部112が出力変換のみをするようにしてもよい。
一般に、ニューラルネットワークに入力する入力データと比較すると、ニューラルネットワークから出力される出力データのサイズは小さので、入力データの変換を省略することで計算コストの抑制、学習の高速化を期待できる点で効果がある。
1・・・情報処理装置
10・・・記憶部
11・・・制御部
110・・・入力変換部
111・・・重み更新部
112・・・出力変換部
2・・・ユーザ端末
N・・・通信ネットワーク
S・・・学習モデル実行システム

Claims (7)

  1. 目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する情報処理装置であって、
    前記ニューラルネットワークに入力する入力データを所定の変換手続きで変換して変換入力データを生成する入力変換部と、
    前記入力変換部が生成した変換入力データを入力データとして前記ニューラルネットワークの各層の重みを更新する重み更新部と、を備え、
    前記入力変換部が実行する所定の変換手続きは、変換前の空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きである、
    情報処理装置。
  2. 前記ニューラルネットワークの出力層が出力した出力ベクトルを、当該出力ベクトルが存在する空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きで、前記出力ベクトルを変換して変換出力ベクトルを生成する出力変換部をさらに備える、
    請求項1に記載の情報処理装置。
  3. 前記目的タスクはカラー画像を対象とする画像認識タスクであり、
    前記入力変換部は、前記カラー画像の各画素の特徴を特定するための複数の変数を座標軸とする空間において、前記所定の変換手続きを実行する、
    請求項1又は2に記載の情報処理装置。
  4. 前記所定の変換手続きは、拡大変換、縮小変換、等長変換、及び並行移動変換のいずれか一つの変換、又は2以上の変換の合成変換である、
    請求項1又は3のいずれか1項に記載の情報処理装置。
  5. 目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する情報処理装置であって、
    目的タスク学習用データを入力データとして前記ニューラルネットワークの各層の重みを更新する重み更新部と、
    前記ニューラルネットワークの出力層が出力した出力ベクトルを、当該出力ベクトルが存在する空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きで、前記出力ベクトルを変換して変換出力ベクトルを生成する出力変換部と、
    を備える情報処理装置。
  6. 目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する情報処理装置のプロセッサが実行する学習方法であって、前記プロセッサが、
    前記ニューラルネットワークに入力する入力データを所定の変換手続きで変換して変換入力データを生成するステップと、
    生成した前記変換入力データを入力データとして前記ニューラルネットワークの各層の重みを更新するステップと、を実行し、
    前記生成するステップにおける所定の変換手続きは、変換前の空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きである、
    学習方法。
  7. 目的タスクを検出するための複数の層を備えるニューラルネットワークの各層の重みを生成する情報処理装置に、
    前記ニューラルネットワークに入力する入力データを所定の変換手続きで変換して変換入力データを生成する機能と、
    生成した前記変換入力データを入力データとして前記ニューラルネットワークの各層の重みを更新する機能と、を実現させ、
    前記生成する機能における所定の変換手続きは、変換前の空間における任意の2点間の距離と、変換後の空間における前記2点間の距離とが、定数倍の関係となる変換手続きである、
    プログラム。

JP2018071117A 2018-04-02 2018-04-02 情報処理装置、学習方法、及びプログラム Active JP6961527B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018071117A JP6961527B2 (ja) 2018-04-02 2018-04-02 情報処理装置、学習方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018071117A JP6961527B2 (ja) 2018-04-02 2018-04-02 情報処理装置、学習方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019185134A true JP2019185134A (ja) 2019-10-24
JP6961527B2 JP6961527B2 (ja) 2021-11-05

Family

ID=68341163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018071117A Active JP6961527B2 (ja) 2018-04-02 2018-04-02 情報処理装置、学習方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6961527B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114065608A (zh) * 2021-10-21 2022-02-18 深圳市卓立智能制造有限公司 往复电磁泵输出功率稳定控制方法、系统和电子设备
WO2022097954A1 (ko) * 2020-11-03 2022-05-12 오픈엣지테크놀로지 주식회사 신경망 연산방법 및 신경망 가중치 생성방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072964A (ja) * 2005-09-09 2007-03-22 Ishihara Sangyo:Kk 離床予測自動感知通報方法と同自動感知通報システム
JP2008129743A (ja) * 2006-11-20 2008-06-05 Hitachi Ltd 生体情報の特徴量変換方法、その装置およびそれを用いたユーザ認証システム
JP2016168046A (ja) * 2015-03-09 2016-09-23 学校法人法政大学 植物病診断システム、植物病診断方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072964A (ja) * 2005-09-09 2007-03-22 Ishihara Sangyo:Kk 離床予測自動感知通報方法と同自動感知通報システム
JP2008129743A (ja) * 2006-11-20 2008-06-05 Hitachi Ltd 生体情報の特徴量変換方法、その装置およびそれを用いたユーザ認証システム
JP2016168046A (ja) * 2015-03-09 2016-09-23 学校法人法政大学 植物病診断システム、植物病診断方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097954A1 (ko) * 2020-11-03 2022-05-12 오픈엣지테크놀로지 주식회사 신경망 연산방법 및 신경망 가중치 생성방법
CN114065608A (zh) * 2021-10-21 2022-02-18 深圳市卓立智能制造有限公司 往复电磁泵输出功率稳定控制方法、系统和电子设备
CN114065608B (zh) * 2021-10-21 2023-09-22 深圳市卓立智能制造有限公司 往复电磁泵输出功率稳定控制方法、系统和电子设备

Also Published As

Publication number Publication date
JP6961527B2 (ja) 2021-11-05

Similar Documents

Publication Publication Date Title
US20220084163A1 (en) Target image generation method and apparatus, server, and storage medium
US10223767B2 (en) Facial feature liquifying using face mesh
GB2600620A (en) Neural network for image registration and image segmentation trained using a registration simulator
CN111524216B (zh) 生成三维人脸数据的方法和装置
CN110490959B (zh) 三维图像处理方法及装置、虚拟形象生成方法以及电子设备
CN114792359A (zh) 渲染网络训练和虚拟对象渲染方法、装置、设备及介质
US11475549B1 (en) High dynamic range image generation from tone mapped standard dynamic range images
JP2019159693A (ja) 情報処理装置、情報処理端末、及びプログラム
JP6961527B2 (ja) 情報処理装置、学習方法、及びプログラム
CN113052962A (zh) 模型训练、信息输出方法,装置,设备以及存储介质
CN111967035A (zh) 模型训练方法、装置和电子设备
CN114139104A (zh) 基于偏微分方程处理流场数据的方法、装置及电子设备
CN114707640A (zh) 一种应用于元宇宙的数字孪生联动方法及系统
CN111915676B (zh) 图像生成方法、装置、计算机设备和存储介质
CN117894038A (zh) 一种图像中对象姿态生成方法和装置
KR20210127084A (ko) 언페어링 데이터로 다수의 랜덤 변수 간의 확률적 추론 모델을 학습하기 위한 방법 및 장치
US20240111894A1 (en) Generative machine learning models for privacy preserving synthetic data generation using diffusion
US20220392251A1 (en) Method and apparatus for generating object model, electronic device and storage medium
CN112152811A (zh) 可重配置电路器件的数字签名验证引擎
WO2020052068A1 (zh) 用于确定图像间的几何变换关系的方法和装置
KR20240077247A (ko) 장면 성분 정보의 추정 장치 및 방법
CN113223128B (zh) 用于生成图像的方法和装置
KR102054347B1 (ko) 스테가노그래피 분석 모델 생성 방법 및 장치
US20240161391A1 (en) Relightable neural radiance field model
US20220067487A1 (en) Electronic device for generating data and improving task performance by using only very small amount of data without prior knowledge of associative domain and operating method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211013

R150 Certificate of patent or registration of utility model

Ref document number: 6961527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150