JP6908863B2 - 信号変更装置、方法、及びプログラム - Google Patents
信号変更装置、方法、及びプログラム Download PDFInfo
- Publication number
- JP6908863B2 JP6908863B2 JP2019515732A JP2019515732A JP6908863B2 JP 6908863 B2 JP6908863 B2 JP 6908863B2 JP 2019515732 A JP2019515732 A JP 2019515732A JP 2019515732 A JP2019515732 A JP 2019515732A JP 6908863 B2 JP6908863 B2 JP 6908863B2
- Authority
- JP
- Japan
- Prior art keywords
- attribute
- signal
- value
- hidden variable
- hidden
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 28
- 238000013528 artificial neural network Methods 0.000 claims description 220
- 230000008859 change Effects 0.000 claims description 138
- 238000009826 distribution Methods 0.000 claims description 93
- 238000000605 extraction Methods 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 10
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 description 24
- 238000006243 chemical reaction Methods 0.000 description 22
- 230000005236 sound signal Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 10
- 238000012546 transfer Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 239000011521 glass Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 210000003323 beak Anatomy 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000009827 uniform distribution Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000000686 essence Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000035897 transcription Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000004800 variational method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
- G06F3/04855—Interaction with scrollbars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本願は、2017年5月2日に、日本へ出願された特願2017−091733号に基づき優先権を主張し、その内容をここに援用する。
なお、隠れ変数とは、画像を表現するのに有用なエッセンスのようなものである。
本発明の一態様は上記の信号変更装置であって、前記信号属性値表示部は、前記属性の値の前記変更指示を受付可能な前記状態として、前記属性の値を示すコントローラで、前記属性の値を表示する。
まず、本発明の第1の実施の形態における概要を説明する。
次に、本発明の第1の実施の形態に係る信号変更装置の構成について説明する。図5に示すように、本発明の第1の実施の形態に係る信号変更装置100は、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、後述する学習処理ルーチン及び生成処理ルーチンを実行するためのプログラムや各種データを記憶したROM(Read Only Memory)と、を含むコンピュータで構成することが出来る。図5に示すように、この信号変更装置100は、機能的には、入力部10と、演算部20と、出力部90とを備えている。
また、あるデータ分布から属性を表す隠れ変数zaを生成する際には、例えば、属性を表す隠れ変数zaが離散的である場合、学習部30は、以下の式に従って、属性を表す隠れ変数zaを生成する。
また、属性を表す隠れ変数zaが連続的である場合には、学習部30は、以下の式に従って、属性を表す隠れ変数zaを生成する。
なお、他の分布に従う隠れ変数zaや変換を採用することができる。例えば、隠れ変数zaの分布として、一様分布(Unif(−1,1))ではなく、正規分布を用いることが可能であり、また、値の範囲を変更することも可能である。
また、
また、
また、
また、Eは期待値を表す。
また、属性「前髪」や属性「化粧」など、属性の有無に関わる隠れ変数に対応するスライドバー96に対する操作を受け付けた場合には、変更後属性値取得部56は、操作されたスライドバー96の位置に対して予め定められた、変更対象の属性を表す隠れ変数za’の変更後の値を取得する。
また、属性「男性/女性」や属性「笑顔でない/笑顔」など、属性の正負に関わる隠れ変数に対応するスライドバー96に対する操作を受け付けた場合には、変更後属性値取得部56は、操作されたスライドバー96の位置に対して予め定められた、変更対象の属性を表す隠れ変数za’の変更後の値を取得する。
次に、本発明の第1の実施の形態に係る信号変更装置100の作用について説明する。信号変更装置100は、以下に説明する学習処理ルーチンと生成処理ルーチンを実行する。
また、生成器2としてのニューラルネットワークGの学習の際に、近似分布Q(za’|x,y)を推定するニューラルネットワークを一緒に学習した場合は、この近似分布を推定するニューラルネットワークを用いて、属性を表す隠れ変数za’を推定するようにし、エンコーダ1としてのニューラルネットワークEは、個体性を表す隠れ変数ziだけを推定するようにしてもよい。
また、エンコーダ1としてのニューラルネットワークEを使わずに、生成器2としてのニューラルネットワークGに任意の個体性を表す隠れ変数ziを入力し、生成器2としてのニューラルネットワークGの出力が目的画像xに近づくように勾配法で個体性を表す隠れ変数ziを更新していくことで、最適な個体性を表す隠れ変数ziを求めるようにしてもよい。また、エンコーダ1としてのニューラルネットワークEで、属性を表す隠れ変数za’と個体性を表す隠れ変数ziを求めた後、これらを初期値にして、生成器2としてのニューラルネットワークGに個体性を表す隠れ変数ziを入力し、生成器2の出力が目的画像xに近づくように勾配法で個体性を表す隠れ変数ziを更新していくことで、最適な個体性を表す隠れ変数ziを求めるようにしてもよい。また、エンコーダ1としてのニューラルネットワークE、または、予測器としてのニューラルネットワークを生成器2としてのニューラルネットワークGおよび識別器3としてのニューラルネットワークDと一緒に学習しても良い。
次に、本発明の第2の実施の形態における概要を説明する。
本発明の第2の実施の形態に係る信号変更装置100において、入力部10は、学習データとして、複数の画像データxを受け付ける。また、入力部10は、変更対象となる画像データxを受け付ける。
上述では、マスク画像の算出にガウシアン分布を用いる場合を例に説明したが、ラプラシアン分布など任意の分布を用いてもよい。差分画像のノルムの計算に絶対値の平均値を用いる場合を例に説明したが、L2ノルムなど、任意のノルムを用いてもよい。輝度値ごとにマスク画像を算出してもよい。
また、エンコーダとしてのニューラルネットワークを使わずに、生成器としてのニューラルネットワークに任意の個体性を表す隠れ変数z1、z2、z3を入力し、出力が目的画像xに近づくように勾配法で個体性を表す隠れ変数z1、z2、z3を更新していくことで、最適な個体性を表す隠れ変数z1、z2、z3を求めるようにしてもよい。また、予測器としてのニューラルネットワークで属性を表す隠れ変数c1を求め、エンコーダとしてのニューラルネットワークで、属性を表す隠れ変数c2’、c3’と個体性を表す隠れ変数z1、z2、z3を求めた後、これらを初期値にして、生成器としてのニューラルネットワークに個体性を表す隠れ変数z1、z2、z3を入力し、出力が目的画像xに近づくように勾配法で個体性を表す隠れ変数z1、z2、z3を更新していくことで、最適な個体性を表す隠れ変数z1、z2、z3を求めるようにしてもよい。
また、エンコーダとしてのニューラルネットワークを用いて、個体性を表す隠れ変数z1、z2、z3と同時に、属性を表す隠れ変数c2、c3を推定する場合には、エンコーダとしてのニューラルネットワークは、推定された各属性を表す隠れ変数c2、c3と、予測された1層目の各属性を表す隠れ変数c1とに基づいて、各属性を表す隠れ変数c2’、c3’を求める。各属性を表す隠れ変数c3’は、以下のように得られる。
まず、2層目の各属性を表す隠れ変数c2’が、1層目の各属性を表す隠れ変数c1の値により、2層目の各属性を表す隠れ変数c2を変換することにより得られる。次に、3層目の各属性を表す隠れ変数c3’が、2層目の各属性を表す隠れ変数c2の変換結果c2’の値により、3層目の各属性を表す隠れ変数c3を変換することにより得られる。
また、エンコーダとしてのニューラルネットワーク、または、予測器としてのニューラルネットワークを生成器としてのニューラルネットワークおよび識別器としてのニューラルネットワークと一緒に学習してもよい。
各ニューラルネットワークの学習において、学習部30は、学習対象となる1つのニューラルネットワーク以外の他のニューラルネットワークのパラメータを固定して、学習対象のニューラルネットワークのパラメータを更新する。学習部30が有するニューラルネットワークそれぞれの学習は、第1及び第2の実施の形態において説明した学習と同様に、学習データごとに繰り返し行われる。
ニューラルネットワークQ1の学習を行う際、学習部30は、予め定められた初期値を設定した隠れ変数c2、c3と、あるデータ分布から生成される隠れ変数z3、c1とに基づいて、ニューラルネットワークQ1のパラメータを更新する。ニューラルネットワークQ2の学習を行う際、学習部30は、初期値を設定した隠れ変数c3と、あるデータ分布から生成される隠れ変数z3、c1、c2とに基づいて、ニューラルネットワークQ2のパラメータを更新する。ニューラルネットワークQ3の学習を行う際、学習部30は、あるデータ分布から生成される隠れ変数z3、c1、c2、c3に基づいて、ニューラルネットワークQ3のパラメータを更新する。
属性を表す隠れ変数c2、c3に設定する初期値は、例えば、隠れ変数c2、c3が取り得る値の期待値、平均値に基づいて決定される。あるいは、隠れ変数c2、c3に含まれる変数の数に基づいて初期値を決定してもよい。ニューラルネットワークG3、D3の学習は、第2の実施の形態において説明した学習と同様である。
2 生成器
3 識別器
10 入力部
20 演算部
30 学習部
40 ニューラルネットワーク記憶部
50 予測部
52 変数抽出部
53 信号出力部
54 信号属性値表示部
56 変更後属性値取得部
58 予測部
60 変数抽出部
62 変更部
64 信号生成部
66 変更後信号出力部
90 出力部
92 属性変更画面
94 ラジオボタン
96 スライドバー
98A 画像表示領域
98B 参照画像表示領域
100 信号変更装置
292 属性変更画面
294 ラジオボタン
298A、298B 音声表示領域
298C 参照音声表示領域
299 ボタン
392 属性変更画面
398A テキスト表示領域
398B 参照テキスト表示領域
492 属性変更画面
498A 動画表示領域
498B 参照動画表示領域
499 ボタン
E,D,G,Q1,Q2,Q3 ニューラルネットワーク
Claims (7)
- 取得された信号を出力する信号出力部と、
前記取得された信号が表現する対象を構成する要素、又は信号発生源に関する属性の値の変更指示を受付可能な状態で、前記属性の値を表示する信号属性値表示部と、
前記属性の値の前記変更指示を受け付けると、変更後の属性の値を取得する変更後属性値取得部と、
前記変更後属性値取得部によって取得された前記変更後の前記属性の値に基づいて、前記変更指示を受け付けた属性の値を変更する変更部と、
前記属性の値が変更された、変更後の信号を出力する変更後信号出力部と、
前記取得された信号から、前記信号の個体性を表す第1の隠れ変数と、前記第1の隠れ変数とは独立した第2の隠れ変数であって前記信号の各属性を表す隠れ変数又は前記隠れ変数に基づく隠れ変数と、を含む複数の隠れ変数を抽出し、前記取得された信号に基づく属性ベクトルを用いて前記第2の隠れ変数を変換することにより前記変更後の信号の各属性を表す第3の隠れ変数を取得する変数抽出部と、
を備え、
前記信号属性値表示部は、前記第3の隠れ変数を出力し、
前記変更部は、前記変更後属性値取得部によって取得された前記変更後の前記属性の値に基づいて、前記第3の隠れ変数の値を変更する、
信号変更装置。 - 前記取得された信号および前記変更後の信号の各々は、画像であり、
前記属性は、前記画像が表現する被写体を構成する要素に関する属性である
請求項1記載の信号変更装置。 - 前記信号属性値表示部は、前記属性の値の前記変更指示を受付可能な前記状態として、前記属性の値を示すコントローラで、前記属性の値を表示する
請求項1又は2記載の信号変更装置。 - 前記変更部は、前記変更後属性値取得部によって取得された前記変更後の前記属性の値に基づいて前記第3の隠れ変数の値を置換し、
置換後の第3の隠れ変数の値と、前記第1の隠れ変数の値と、予め学習された少なくとも1つのニューラルネットワークと、を用いて前記変更後の信号を生成する信号生成部をさらに備える、
請求項1に記載の信号変更装置。 - 前記少なくとも1つのニューラルネットワークは、信号の個体性を表す第1の隠れ変数と、前記第1の隠れ変数とは独立した第2の隠れ変数であって前記信号の各属性を表す隠れ変数又は前記隠れ変数に基づく隠れ変数を属性ベクトルにより変換した第3の隠れ変数と、に基づいて、信号を生成する生成器としての第1のニューラルネットワークと、
前記生成器により生成される信号が真の信号と同一の分布に従うか否かを識別する識別器としての第2のニューラルネットワークとを互いに競合する最適化条件に従って学習することにより生成される、
請求項4に記載の信号変更装置。 - コンピュータを、請求項1から5のいずれか一項に記載の信号変更装置を構成する各部として機能させるためのプログラム。
- 信号出力部が、取得された信号を出力し、
信号属性値表示部が、前記取得された信号が表現する対象を構成する要素、又は信号発生源に関する属性の値の変更指示を受付可能な状態で、前記属性の値を表示し、
変更後属性値取得部が、前記属性の値の前記変更指示を受け付けると、変更後の属性の値を取得し、
変更部が、前記変更後属性値取得部によって取得された前記変更後の前記属性の値に基づいて、前記変更指示を受け付けた属性の値を変更し、
変更後信号出力部が、前記属性の値が変更された、変更後の信号を出力し、
変数抽出部が、前記取得された信号から、前記信号の個体性を表す第1の隠れ変数と、前記第1の隠れ変数とは独立した第2の隠れ変数であって前記信号の各属性を表す隠れ変数又は前記隠れ変数に基づく隠れ変数と、を含む複数の隠れ変数を抽出し、前記取得された信号に基づく属性ベクトルを用いて前記第2の隠れ変数を変換することにより前記変更後の信号の各属性を表す第3の隠れ変数を取得し、
前記信号属性値表示部が、前記第3の隠れ変数を出力し、
前記変更部が、取得された前記変更後の前記属性の値に基づいて、前記第3の隠れ変数の値を変更する、
信号変更方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017091733 | 2017-05-02 | ||
JP2017091733 | 2017-05-02 | ||
PCT/JP2018/017404 WO2018203549A1 (ja) | 2017-05-02 | 2018-05-01 | 信号変更装置、方法、及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021004529A Division JP7144699B2 (ja) | 2017-05-02 | 2021-01-14 | 信号変更装置、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018203549A1 JPWO2018203549A1 (ja) | 2020-01-09 |
JP6908863B2 true JP6908863B2 (ja) | 2021-07-28 |
Family
ID=64016119
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019515732A Active JP6908863B2 (ja) | 2017-05-02 | 2018-05-01 | 信号変更装置、方法、及びプログラム |
JP2021004529A Active JP7144699B2 (ja) | 2017-05-02 | 2021-01-14 | 信号変更装置、方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021004529A Active JP7144699B2 (ja) | 2017-05-02 | 2021-01-14 | 信号変更装置、方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11288851B2 (ja) |
JP (2) | JP6908863B2 (ja) |
WO (1) | WO2018203549A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6831453B2 (ja) * | 2017-05-02 | 2021-02-17 | 日本電信電話株式会社 | 信号検索装置、方法、及びプログラム |
TWI682359B (zh) * | 2018-01-29 | 2020-01-11 | 國立清華大學 | 影像補全方法 |
US10970765B2 (en) * | 2018-02-15 | 2021-04-06 | Adobe Inc. | Generating user-customized items using a visually-aware image generation network |
JP7099292B2 (ja) * | 2018-12-11 | 2022-07-12 | 日本電信電話株式会社 | 画像生成装置、画像生成方法、及びプログラム |
CN110264398B (zh) * | 2019-07-16 | 2021-05-28 | 北京市商汤科技开发有限公司 | 图像处理方法及装置 |
US11176713B2 (en) * | 2020-01-31 | 2021-11-16 | Adobe Inc. | Generation of controlled attribute-based images |
US12026845B2 (en) * | 2020-08-31 | 2024-07-02 | Nvidia Corporation | Image generation using one or more neural networks |
US12112130B2 (en) * | 2021-11-03 | 2024-10-08 | Adobe Inc. | Counterfactual text stylization |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003022451A (ja) | 2001-07-06 | 2003-01-24 | Minolta Co Ltd | 画像生成方法、画像生成プログラム、画像生成プログラムを記録したコンピュータ読取可能な記録媒体および画像生成装置 |
US7039222B2 (en) * | 2003-02-28 | 2006-05-02 | Eastman Kodak Company | Method and system for enhancing portrait images that are processed in a batch mode |
JP4845382B2 (ja) * | 2004-02-06 | 2011-12-28 | キヤノン株式会社 | 画像処理装置及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体 |
JP4738857B2 (ja) * | 2005-03-23 | 2011-08-03 | キヤノン株式会社 | 画像処理装置およびその方法 |
US8391639B2 (en) | 2007-07-23 | 2013-03-05 | The Procter & Gamble Company | Method and apparatus for realistic simulation of wrinkle aging and de-aging |
US9760935B2 (en) | 2014-05-20 | 2017-09-12 | Modiface Inc. | Method, system and computer program product for generating recommendations for products and treatments |
JP5799381B1 (ja) | 2014-08-18 | 2015-10-21 | 株式会社メイクソフトウェア | 写真撮影遊戯機及びその制御プログラム |
JP5950486B1 (ja) | 2015-04-01 | 2016-07-13 | みずほ情報総研株式会社 | 加齢化予測システム、加齢化予測方法及び加齢化予測プログラム |
JP6483578B2 (ja) * | 2015-09-14 | 2019-03-13 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
-
2018
- 2018-05-01 US US16/609,898 patent/US11288851B2/en active Active
- 2018-05-01 JP JP2019515732A patent/JP6908863B2/ja active Active
- 2018-05-01 WO PCT/JP2018/017404 patent/WO2018203549A1/ja active Application Filing
-
2021
- 2021-01-14 JP JP2021004529A patent/JP7144699B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11288851B2 (en) | 2022-03-29 |
JP2021064408A (ja) | 2021-04-22 |
JPWO2018203549A1 (ja) | 2020-01-09 |
JP7144699B2 (ja) | 2022-09-30 |
WO2018203549A1 (ja) | 2018-11-08 |
US20200193661A1 (en) | 2020-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6908863B2 (ja) | 信号変更装置、方法、及びプログラム | |
JP6831453B2 (ja) | 信号検索装置、方法、及びプログラム | |
Fabius et al. | Variational recurrent auto-encoders | |
CN110322416B (zh) | 图像数据处理方法、装置以及计算机可读存储介质 | |
CN111489412A (zh) | 用于使用神经网络生成基本逼真图像的语义图像合成 | |
CN111079601A (zh) | 基于多模态注意力机制的视频内容描述方法、系统、装置 | |
JP7078875B2 (ja) | 信号生成装置、信号生成学習装置、方法、及びプログラム | |
KR20200078214A (ko) | 스타일 변환을 위한 영상 처리 장치 및 방법 | |
KR20200052453A (ko) | 딥러닝 모델 학습 장치 및 방법 | |
CN116564338B (zh) | 语音动画生成方法、装置、电子设备和介质 | |
CN114663685B (zh) | 一种行人重识别模型训练的方法、装置和设备 | |
Hu et al. | Unified discrete diffusion for simultaneous vision-language generation | |
JP2018055384A (ja) | 信号調整装置、信号生成学習装置、方法、及びプログラム | |
JP6886120B2 (ja) | 信号検索装置、方法、及びプログラム | |
CN118015110A (zh) | 人脸图像生成方法及装置、计算机可读存储介质、终端 | |
CN116932788A (zh) | 封面图像提取方法、装置、设备及计算机存储介质 | |
CN114581829A (zh) | 基于强化学习的连续手语识别方法、电子设备和存储介质 | |
KR102183310B1 (ko) | 전문성 이식을 통한 딥러닝 기반의 전문 이미지 해석 장치 및 방법 | |
CN115984652B (zh) | 符号生成系统的训练方法、装置、电子设备和存储介质 | |
Elibol et al. | Semi-supervised and population based training for voice commands recognition | |
Chiranjeevi et al. | A Comparative Analysis on the Effectiveness of GAN Performance | |
CN118842975A (en) | Digital human video generation method, device, equipment and medium | |
CN117854524A (zh) | 动画角色语音变换系统及方法、存储介质、电子装置 | |
CN117590949A (zh) | 一种虚拟人物的人机交互方法及装置 | |
JP2024124970A (ja) | 情報処理装置及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190823 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6908863 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |