JP7023669B2 - 画像生成方法、画像生成装置、及び画像生成プログラム - Google Patents
画像生成方法、画像生成装置、及び画像生成プログラム Download PDFInfo
- Publication number
- JP7023669B2 JP7023669B2 JP2017207606A JP2017207606A JP7023669B2 JP 7023669 B2 JP7023669 B2 JP 7023669B2 JP 2017207606 A JP2017207606 A JP 2017207606A JP 2017207606 A JP2017207606 A JP 2017207606A JP 7023669 B2 JP7023669 B2 JP 7023669B2
- Authority
- JP
- Japan
- Prior art keywords
- generator
- network
- scalar value
- discriminator
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000012549 training Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 18
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 18
- 238000005516 engineering process Methods 0.000 description 9
- 238000007796 conventional method Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002124 flame ionisation detection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
概略を説明すると、まず、ジェネレータが乱数zからデータxを生成する。GANsでは、データxは2箇所のソースから同時発生しており、データxは、「真のデータの確率分布」に従っているか、「ジェネレータが生成した確率分布」に従っている。ディスクリミネータは、「ジェネレータが生成したデータx」と、「真のデータx」を識別するように学習する。それに対して、ジェネレータは、ディスクリミネータが真のデータと区別できないようなデータを生成するように学習する。このように学習を続けて、ジェネレータの生成データを、真のデータにより近づけ、最終的には本物と見まがうレベルの画像が生成できるようにする。
より具体的には、GANsにおけるD(x)の役割は、「真の確率分布:q」と「ジェネレータのモデルから定まる確率分布:p」との距離もしくはダイバージェンスを測ることである。ジェネレータは、ディスクリミネータで代理的に測られた距離もしくはダイバージェンスを小さくするように学習する。
GANsに関し、新たな画像生成の他に、解像度が低下している画像をGANsで処理して画像の解像度を向上する(以下、超解像)手法も研究されている。
GANsでは、上記のように、D(x)は、xを受け取って、そのxが、「真のデータの確率分布」に従っているか、「ジェネレータが生成した確率分布」に従っているかを識別するが、cGANsのディスクリミネータ(以下D(x,y)ともいう。)は、xの他に、コンディション情報yを受け取って、そのxが、「真のデータの確率分布」に従っているか、「ジェネレータが生成した確率分布」に従っているかを識別する。コンディション情報yとしては、例えば、カテゴリ情報等の情報が使用される。
これらのcGANsを、クラス・コンディション生成(非特許文献4)や、テキストからの画像生成(非特許文献5)などで用いる研究も開示されている。
しかし、これらの従来手法を用いた場合、D(x,y)で「真の確率分布:q」と「ジェネレータのモデルから定まる確率分布:p」との距離を正確に測ることができないケースが多く、生成画像を真の画像と見まがうレベルに近づけることはできない。
[2]下記式(11)のカテゴリーデータyとして、ワン・ホット・エンコードされたデータを用いる、[1]の画像生成方法。
[3]ジェネレータとディスクリミネータの2つのニューラルネットワークから構成される条件付き敵対生成ネットワークを内蔵した画像処理装置であって、前記ディスクリミネータが、下記式(11)のモデルで演算を行う演算部を有する、画像生成装置。
[4]下記式(11)のカテゴリーデータyが、ワン・ホット・エンコードされたデータである、[3]に記載の画像生成装置。
[5]コンピュータに[1]又は[2]に記載の画像生成方法を実行させる画像生成プログラム。
前記のように、GANsにおけるD(x)の役割は、「真の確率分布:q」と「ジェネレータのモデルから定まる確率分布:p」との距離もしくはダイバージェンスを測ることである。
本発明では、y given x ; p(y|x) がガウス分布のような単峰型(unimodal)な分布や対数線形モデル(log linear model)で表せる離散分布だと仮定し、そのように想定できる場合における理論的な動機づけのあるcGANsにおけるD(x,y)のモデルを提案する。
本発明者の提案するモデルは暗黙的にD(x)の与えられたときの最適(optimial)な解が対数尤度比なっていることを考慮し、まずその対数尤度比を、条件付き分布の対数尤度比log q(y|x)/p(y|x)とxの対数尤度比log q(x)/p(x)に分けて考える。
次に、log q(y|x)/p(y|x)について、q(y|x)とp(y|x)が、それぞれ前記のように、ガウス分布のような単峰型(unimodal)な分布や対数線形モデル(log linear model)で表せる離散分布だと仮定する。
すると結果的に得られるD(x,y)のモデルは、図3に示すように、コンディション情報yをφの出力に掛けて足すという形になる。
この新たなD(x,y)モデルを用いたcGANsでは、図1や図2に示した従来のD(x,y)モデルを用いたcGANsに比べて、大幅に性能が向上する。
また、この新たなD(x,y)モデルを超解像のタスクに適用することで、従来技術に比べてよりも判別が容易(disciriminative)な画像を生成することができる。
r(y|x)を求めるf1と、r(x) を求めるf2を構築し、それらを組み合わせてDを作成することもできる。
従来の技術ではD(x,y)のモデルは、D([x,y]) of x and y; [x,y]で表されるが、従来のD(x,y)は、上記式(3)をモデル化するには過剰な柔軟性があり好ましくない。
クラス・コンディション・イメージ生成(the class-conditional image generation)において、カテゴリー変数がy∈{1,…,C}(Cはカテゴリー数)で表されるとすると、最もよく使われるp(y|x)のモデルは下記式(5)の対数線形モデルで表される。
を陰関数(implicit)として、
とすると、
が得られる。wを、r(x)の最終層の重み(final layer of r(x))とすると、cGANsのディスクリミネータ・モデルは下記式(10)で表される。
下記式(10)において、yとしてワン・ホット・エンコードされたデータを用いると、下記式(11)で表されるモデルが導かれる。
ここで、
Vは、yの埋め込み行列、
は、xを引数にしてベクトルを出力する関数、
は、
を引数にしてスカラー値を出力する関数である。
は、学習パラメータであり、敵対的損失を最適化するように訓練されるパラメータである。
1つは、ILSVRC2012データセット(ImageNet)でクラスconditional image generation、もう1つは同じデータセットを用いた超解像タスクである。どちらのタスクにもResNet(Heet al., 2016b)ベースのGulrajani et al. (2017)で使用されているディスクリミネータとジェネレータを用いた。
学習の目的関数には下記式(16)及び下記式(17)の敵対的損失(adversarial loss)を用いた。
このタスクではImageNet datasetを用いてクラスで条件付きの生成モデルを学習した。クラス数は1000で、1クラスあたりの画像数はおよそ1300である。
評価に用いたのはVisual appearanceの良さを測る指標としてInception score、diversityをある程度はかる指標としてintra-class MSSSIM、intra-class FIDsである。
ここでは、state of the artのGANs モデルとしてAC-GANs (Odena et al., 2016)とconditionの与え方の違いによって性能がどのくらい違うかを見るためにhidden concatenationと提案するmultiplyの3つのモデルを試した。
図4に示すように、本発明(multiply)のほうがvisual qualityが高いことがわかる。
学習(training)が崩壊(collapse)したのでいちばん最も開始スコア(inception score)が高かったときのモデルで各評価を行った。
図7に示すように、本発明(multiply)のメソッドによって学習されたモデルでは、collapseしているクラスが認められなかった。従来技術(concat)のメソッドによって学習されたモデルは明らかにcollapseしているクラスが複数存在した。
図8には、zを固定したのもと、異なるクラス間でモーフィング(morphing)した時の図を示している。全く異なるクラス間でも滑らか(smooth)にモーフィングが行われていることがわかる。
Claims (23)
- ディスクリミネータの第1のネットワークに、少なくともジェネレータが生成した第1のデータ又は訓練データのいずれかを入力し、
前記第1のネットワークの出力とコンディション情報とに基づいて、第1のスカラー値を計算し、
前記ディスクリミネータの第2のネットワークに前記第1のネットワークの出力を入力することで第2のスカラー値を計算し、
前記第1のスカラー値と前記第2のスカラー値とに基づいて、損失を計算し、
前記損失に基づいて、少なくとも前記ディスクリミネータ又は前記ジェネレータのいずれかを更新する、
モデル生成方法。 - ディスクリミネータの第1のネットワークに、少なくともジェネレータが生成した第1のデータ又は訓練データのいずれかを入力し、
前記第1のネットワークの出力とコンディション情報の積に基づいて、第1のスカラー値を計算し、
前記第1のスカラー値に基づいて、損失を計算し、
前記損失に基づいて、少なくとも前記ディスクリミネータ又は前記ジェネレータのいずれかを更新する、
モデル生成方法。 - 前記ディスクリミネータの第2のネットワークに前記第1のネットワークの出力を入力することで第2のスカラー値を計算し、
第1のスカラー値と前記第2のスカラー値とに基づいて、前記損失を計算する、
請求項2に記載のモデル生成方法。 - 前記第1のネットワークの出力と前記コンディション情報の内積によって、前記第1のスカラー値を計算する、
請求項1乃至3のいずれかに記載のモデル生成方法。 - 前記コンディション情報は、ワン・ホット・ベクトルである、
請求項1乃至4のいずれかに記載のモデル生成方法。 - 前記コンディション情報は、カテゴリーに関する情報を含む、
請求項1乃至5のいずれかに記載のモデル生成方法。 - 前記第1のデータは、画像データである、
請求項1乃至6のいずれかに記載のモデル生成方法。 - 前記ジェネレータにノイズを入力することで前記第1のデータを生成する、
請求項1乃至7のいずれかに記載のモデル生成方法。 - 請求項1乃至8のいずれかに記載のモデル生成方法で生成されたジェネレータにノイズを入力することでデータを生成するデータ生成方法。
- 少なくとも1台のコンピュータに請求項1乃至8のいずれかに記載のモデル生成方法を実行させるプログラム。
- 少なくとも1台のコンピュータに請求項9に記載のデータ生成方法を実行させるプログラム。
- ディスクリミネータの第1のネットワークに、少なくともジェネレータが生成した第1のデータ又は訓練データのいずれかを入力し、
前記第1のネットワークの出力とコンディション情報とに基づいて、第1のスカラー値を計算し、
前記ディスクリミネータの第2のネットワークに前記第1のネットワークの出力を入力することで第2のスカラー値を計算し、
前記第1のスカラー値と前記第2のスカラー値とに基づいて、損失を計算し、
前記損失に基づいて、少なくとも前記ディスクリミネータ又は前記ジェネレータのいずれかを更新する、
モデル生成装置。 - ディスクリミネータの第1のネットワークに、少なくともジェネレータが生成した第1のデータ又は訓練データのいずれかを入力し、
前記第1のネットワークの出力とコンディション情報の積に基づいて、第1のスカラー値を計算し、
前記第1のスカラー値に基づいて、損失を計算し、
前記損失に基づいて、少なくとも前記ディスクリミネータ又は前記ジェネレータのいずれかを更新する、
モデル生成装置。 - 前記ディスクリミネータの第2のネットワークに前記第1のネットワークの出力を入力することで第2のスカラー値を計算し、
第1のスカラー値と前記第2のスカラー値とに基づいて、前記損失を計算する、
請求項14に記載のモデル生成装置。 - 前記第1のネットワークの出力と前記コンディション情報の内積によって、前記第1のスカラー値を計算する、
請求項13乃至15のいずれかに記載のモデル生成装置。 - 前記コンディション情報は、ワン・ホット・ベクトルである、
請求項13乃至16のいずれかに記載のモデル生成装置。 - 前記コンディション情報は、カテゴリーに関する情報を含む、
請求項13乃至17のいずれかに記載のモデル生成装置。 - 前記第1のデータは、画像データである、
請求項13乃至18のいずれかに記載のモデル生成装置。 - 前記ジェネレータにノイズを入力することで前記第1のデータを生成する、
請求項13乃至19のいずれかに記載のモデル生成装置。 - 請求項13乃至20のいずれかに記載のモデル生成装置で生成されたジェネレータにノイズを入力することでデータを生成するデータ生成装置。
- 1又は複数のプロセッサに、
ディスクリミネータの第1のネットワークに、少なくともジェネレータが生成した第1のデータ又は訓練データのいずれかを入力し、
前記第1のネットワークの出力とコンディション情報とに基づいて、第1のスカラー値を計算し、
前記ディスクリミネータの第2のネットワークに前記第1のネットワークの出力を入力することで第2のスカラー値を計算し、
前記第1のスカラー値と前記第2のスカラー値とに基づいて、損失を計算し、
前記損失に基づいて、少なくとも前記ディスクリミネータ又は前記ジェネレータのいずれかを更新する、
方法を実行させるプログラム。 - 1又は複数のプロセッサに、
ディスクリミネータの第1のネットワークに、少なくともジェネレータが生成した第1のデータ又は訓練データのいずれかを入力し、
前記第1のネットワークの出力とコンディション情報の積に基づいて、第1のスカラー値を計算し、
前記第1のスカラー値に基づいて、損失を計算し、
前記損失に基づいて、少なくとも前記ディスクリミネータ又は前記ジェネレータのいずれかを更新する、
方法を実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017207606A JP7023669B2 (ja) | 2017-10-26 | 2017-10-26 | 画像生成方法、画像生成装置、及び画像生成プログラム |
US16/171,200 US11048999B2 (en) | 2017-10-26 | 2018-10-25 | Image generation method, image generation apparatus, and image generation program |
US17/336,959 US20210287073A1 (en) | 2017-10-26 | 2021-06-02 | Image generation method, image generation apparatus, and image generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017207606A JP7023669B2 (ja) | 2017-10-26 | 2017-10-26 | 画像生成方法、画像生成装置、及び画像生成プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019079436A JP2019079436A (ja) | 2019-05-23 |
JP2019079436A5 JP2019079436A5 (ja) | 2021-07-26 |
JP7023669B2 true JP7023669B2 (ja) | 2022-02-22 |
Family
ID=66432191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017207606A Active JP7023669B2 (ja) | 2017-10-26 | 2017-10-26 | 画像生成方法、画像生成装置、及び画像生成プログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US11048999B2 (ja) |
JP (1) | JP7023669B2 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11797864B2 (en) * | 2018-06-18 | 2023-10-24 | Fotonation Limited | Systems and methods for conditional generative models |
US10878566B2 (en) * | 2019-04-23 | 2020-12-29 | Adobe Inc. | Automatic teeth whitening using teeth region detection and individual tooth location |
CN110276377B (zh) * | 2019-05-17 | 2021-04-06 | 杭州电子科技大学 | 一种基于贝叶斯优化的对抗样本生成方法 |
JP2021005745A (ja) * | 2019-06-25 | 2021-01-14 | 公立大学法人会津大学 | 秘密データの通信方法、秘密データの通信プログラム及び秘密データの通信システム |
CN110457994B (zh) * | 2019-06-26 | 2024-05-10 | 平安科技(深圳)有限公司 | 人脸图像生成方法及装置、存储介质、计算机设备 |
CN110598806A (zh) * | 2019-07-29 | 2019-12-20 | 合肥工业大学 | 一种基于参数优化生成对抗网络的手写数字生成方法 |
KR20210070029A (ko) | 2019-12-04 | 2021-06-14 | 삼성전자주식회사 | 반복적 생성을 통해 출력 콘텐트를 향상시키기 위한 디바이스, 방법, 및 프로그램 |
US11544832B2 (en) * | 2020-02-04 | 2023-01-03 | Rockwell Collins, Inc. | Deep-learned generation of accurate typical simulator content via multiple geo-specific data channels |
US11330315B2 (en) * | 2020-02-21 | 2022-05-10 | Rovi Guides, Inc. | Systems and methods for generating adapted content depictions |
CN111402365B (zh) * | 2020-03-17 | 2023-02-10 | 湖南大学 | 一种基于双向架构对抗生成网络的由文字生成图片的方法 |
US11948347B2 (en) | 2020-04-10 | 2024-04-02 | Samsung Display Co., Ltd. | Fusion model training using distance metrics |
CN111583276B (zh) * | 2020-05-06 | 2022-04-19 | 西安电子科技大学 | 基于cgan的空间目标isar图像部件分割方法 |
CN111597338B (zh) * | 2020-05-19 | 2023-04-18 | 杭州英视信息科技有限公司 | 对抗支持向量机 |
CN111968193B (zh) * | 2020-07-28 | 2023-11-21 | 西安工程大学 | 一种基于StackGAN网络的文本生成图像方法 |
CN112132149B (zh) * | 2020-09-10 | 2023-09-05 | 武汉汉达瑞科技有限公司 | 一种遥感影像语义分割方法及装置 |
US11948274B1 (en) * | 2021-01-05 | 2024-04-02 | Pixar | Deep learned super resolution for feature film production |
CN113012251B (zh) * | 2021-03-17 | 2022-05-03 | 厦门大学 | 基于生成对抗网络的sar图像自动彩色化方法 |
CN113689517B (zh) * | 2021-09-08 | 2024-05-21 | 云南大学 | 一种多尺度通道注意力网络的图像纹理合成方法及系统 |
CN115019128B (zh) * | 2022-06-02 | 2024-08-23 | 电子科技大学 | 图像生成模型训练方法、图像生成方法及相关装置 |
KR102624237B1 (ko) * | 2023-08-03 | 2024-01-15 | 주식회사 아임토리 | 로봇팔의 도메인 적응 장치 및 방법 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017168870A1 (ja) | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10043261B2 (en) * | 2016-01-11 | 2018-08-07 | Kla-Tencor Corp. | Generating simulated output for a specimen |
US9971958B2 (en) * | 2016-06-01 | 2018-05-15 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for generating multimodal digital images |
US10319076B2 (en) * | 2016-06-16 | 2019-06-11 | Facebook, Inc. | Producing higher-quality samples of natural images |
US10546242B2 (en) * | 2017-03-03 | 2020-01-28 | General Electric Company | Image analysis neural network systems |
JP6831453B2 (ja) * | 2017-05-02 | 2021-02-17 | 日本電信電話株式会社 | 信号検索装置、方法、及びプログラム |
US10242292B2 (en) * | 2017-06-13 | 2019-03-26 | Digital Surgery Limited | Surgical simulation for training detection and classification neural networks |
CN110799995A (zh) | 2017-06-29 | 2020-02-14 | 首选网络株式会社 | 数据识别器训练方法、数据识别器训练装置、程序及训练方法 |
US10624558B2 (en) * | 2017-08-10 | 2020-04-21 | Siemens Healthcare Gmbh | Protocol independent image processing with adversarial networks |
US10650306B1 (en) * | 2017-09-29 | 2020-05-12 | Amazon Technologies, Inc. | User representation using a generative adversarial network |
US10642846B2 (en) * | 2017-10-13 | 2020-05-05 | Microsoft Technology Licensing, Llc | Using a generative adversarial network for query-keyword matching |
US11120337B2 (en) * | 2017-10-20 | 2021-09-14 | Huawei Technologies Co., Ltd. | Self-training method and system for semi-supervised learning with generative adversarial networks |
-
2017
- 2017-10-26 JP JP2017207606A patent/JP7023669B2/ja active Active
-
2018
- 2018-10-25 US US16/171,200 patent/US11048999B2/en active Active
-
2021
- 2021-06-02 US US17/336,959 patent/US20210287073A1/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017168870A1 (ja) | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
Non-Patent Citations (2)
Title |
---|
RRED,et al.,Generative Adversarial Text to Image Synthesis,Proceedings of the 33rd International Conference on Machine Learning,米国,2016年12月31日,JMLR:W&CP Volume48,pp.1-10 |
金子 卓弘,Conditional Filtered Generative Adversarial Networksを用いた生成的属性制御,電子情報通信学会技術研究報告 Vol.117 No.211 IEICE Technical Report,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2017年10月16日,第117巻,pp.213-220 |
Also Published As
Publication number | Publication date |
---|---|
JP2019079436A (ja) | 2019-05-23 |
US20210287073A1 (en) | 2021-09-16 |
US20190147321A1 (en) | 2019-05-16 |
US11048999B2 (en) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7023669B2 (ja) | 画像生成方法、画像生成装置、及び画像生成プログラム | |
Vo et al. | Pyramid with super resolution for in-the-wild facial expression recognition | |
Quan et al. | Image inpainting with local and global refinement | |
Sun et al. | Learning layout and style reconfigurable gans for controllable image synthesis | |
Li et al. | A2-RL: Aesthetics aware reinforcement learning for image cropping | |
Niculae et al. | A regularized framework for sparse and structured neural attention | |
Li et al. | Context-aware semantic inpainting | |
Ghorai et al. | Multiple pyramids based image inpainting using local patch statistics and steering kernel feature | |
US10949706B2 (en) | Finding complementary digital images using a conditional generative adversarial network | |
Yeo et al. | Simple yet effective way for improving the performance of GAN | |
Nie et al. | A multi-stage convolution machine with scaling and dilation for human pose estimation | |
Dai et al. | Data augmentation for thermal infrared object detection with cascade pyramid generative adversarial network | |
Khowaja et al. | Hybrid and hierarchical fusion networks: a deep cross-modal learning architecture for action recognition | |
Bose et al. | In-situ recognition of hand gesture via Enhanced Xception based single-stage deep convolutional neural network | |
Srivastava et al. | Aga-gan: Attribute guided attention generative adversarial network with u-net for face hallucination | |
Liu et al. | Attentive semantic and perceptual faces completion using self-attention generative adversarial networks | |
Khare et al. | Analysis of loss functions for image reconstruction using convolutional autoencoder | |
Ma et al. | An improved scheme of deep dilated feature extraction on pedestrian detection | |
An et al. | A Deep Convolutional Neural Network for Pneumonia Detection in X-ray Images with Attention Ensemble | |
Zhu et al. | Human pose estimation with multiple mixture parts model based on upper body categories | |
Yang et al. | Denoising vision transformers | |
Chen et al. | 3D object completion via class-conditional generative adversarial network | |
Shi et al. | Combined channel and spatial attention for YOLOv5 during target detection | |
Zhang et al. | Fast contour detection with supervised attention learning | |
Moses et al. | Analysing the loss landscape features of generative adversarial networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20200207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201026 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211026 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7023669 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |