JP7224323B2 - Image generation system and image generation method using the same - Google Patents
Image generation system and image generation method using the same Download PDFInfo
- Publication number
- JP7224323B2 JP7224323B2 JP2020169539A JP2020169539A JP7224323B2 JP 7224323 B2 JP7224323 B2 JP 7224323B2 JP 2020169539 A JP2020169539 A JP 2020169539A JP 2020169539 A JP2020169539 A JP 2020169539A JP 7224323 B2 JP7224323 B2 JP 7224323B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- style
- reference image
- domain
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 34
- 239000002131 composite material Substances 0.000 claims description 26
- 210000004209 hair Anatomy 0.000 claims description 17
- 238000013507 mapping Methods 0.000 description 36
- 238000009826 distribution Methods 0.000 description 16
- 239000000284 extract Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000000007 visual effect Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000037308 hair color Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000000088 lip Anatomy 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/32—Image data format
Description
特許法第30条第2項適用 2019年12月4日https://arxiv.org/abs/1912.01865のウェブサイトにて「Diverse Image Synthesis for Multiple Domains」について発表Application of Article 30, Paragraph 2 of the Patent Act December 4, 2019 https://arxiv. Published "Diverse Image Synthesis for Multiple Domains" on the website of org/abs/1912.01865
本発明は、イメージを生成するシステム及びこれを利用したイメージ生成方法に関する。 The present invention relates to an image generation system and an image generation method using the same.
イメージの一部特徴を他の特徴に変換したり、複数のイメージを互いに合成することにより、新しいイメージを生成するイメージ生成技術は、産業界において様々な目的に活用されているだけでなく、最近では、一般ユーザにも娯楽の要素として広く活用されている。 Image generation technology, which generates a new image by converting some features of an image into other features or synthesizing multiple images with each other, has been utilized for various purposes in the industrial world. Therefore, it is widely used by general users as an element of entertainment.
このようなイメージ生成技術は、人工知能の発達により、その生成技術が日々発展しており、実際に、人の目では区別が難しい程度の水準まで至った。 With the development of artificial intelligence, such image generation technology is developing day by day, and has actually reached a level where it is difficult for the human eye to distinguish between images.
特に、イメージ生成技術は、2014年にヨシュア・ベンジオ(Yoshua Bengio)教授の研究チームで考案された、敵対的生成ネットワーク(Generative Adversarial Network。略字:GAN)に基づいて飛躍的に発展した。 In particular, image generation technology has made rapid progress based on the Generative Adversarial Network (abbreviated as GAN) devised in 2014 by a research team led by Professor Yoshua Bengio.
敵対的生成ネットワーク(GAN)は、確率分布を学習する生成モデルと互いに異なる集合を区分する識別モデルとで構成される。このとき、イメージ生成モデル(または、生成子)は、ターゲットドメインを有する偽物イメージを作って識別モデルを最大限詐称して訓練するようになされる。そして、識別モデル(または、識別子)は、生成モデルが提示する偽物イメージと実際イメージとをターゲットドメインを基準に最大限正確に区分するように訓練される。 A generative adversarial network (GAN) consists of a generative model that learns probability distributions and a discriminative model that partitions different sets. At this time, the image generation model (or generator) is designed to create a fake image having the target domain and to train the discriminant model with maximum deception. Then, the discriminative model (or discriminator) is trained to classify the fake image presented by the generative model and the real image as accurately as possible based on the target domain.
このように、識別モデルを詐称するように生成モデルを訓練する方式を対立的プロセスという。このような敵対的生成ネットワークは、生成モデルと識別モデルとを対立的プロセスを介して発展させる過程であって、ターゲットドメインに対して実際イメージと極めて類似した類似イメージ、すなわち、偽物イメージを生成できるようになった。 This method of training a generative model to impersonate a discriminative model is called an adversarial process. Such a generative adversarial network is a process of developing a generative model and a discriminative model through an adversarial process, and can generate a similar image, that is, a fake image, which is very similar to the actual image for the target domain. It became so.
しかしながら、このような敵対的生成ネットワークにおいてイメージ生成モデル及び識別モデルは、ターゲットドメインを基準に学習されるので、ターゲットドメインが変更される場合、新しいイメージ生成モデル及び識別モデルを訓練しなければならないという限界を有する。 However, in such a generative adversarial network, the image generation model and the discriminant model are learned based on the target domain, so if the target domain is changed, new image generation models and discriminant models must be trained. have limits.
これにより、様々なターゲットドメインに対して柔軟に対処できるイメージ生成方法に対するニーズが依然として存在する。 Thus, there is still a need for an image generation method that can flexibly address different target domains.
本発明は、互いに異なるターゲットドメインに対応する様々なイメージを生成できるイメージ生成システム及びこれを利用したイメージ生成方法を提供するものである。 SUMMARY OF THE INVENTION The present invention provides an image generation system and an image generation method using the same that can generate various images corresponding to different target domains.
前述したような課題を解決するために、本発明に係るイメージ生成システムは、変換の対象になるソースイメージを受信するイメージ入力部と、基準イメージの外貌スタイルと関連したスタイルコードを入力するスタイルコード入力部と、前記スタイルコードを用いて、前記ソースイメージに前記基準イメージの外貌スタイルが反映された合成イメージを生成するイメージ生成部とを備えることができる。 To solve the above problems, the image generation system according to the present invention includes an image input unit for receiving a source image to be transformed, and a style code for inputting a style code related to the appearance style of a reference image. An input unit and an image generation unit for generating a composite image in which the appearance style of the reference image is reflected in the source image using the style code.
本発明に係るイメージ生成システムは、ドメインの特性を含むスタイルコードを用いて、スタイルコードに含まれたドメイン特性に該当するドメインを有するイメージを生成できる。 The image generation system according to the present invention can generate an image having a domain corresponding to the domain characteristics included in the style code using the style code including the characteristics of the domain.
以下、添付された図面を参照して本明細書に開示された実施形態を詳細に説明するものの、図面符号に関係なく、同一であるか、類似した構成要素には同じ参照符号を付し、これについての重複する説明を省略する。以下の説明において使用される構成要素に対する接尾辞の「モジュール」及び「部」は、明細書作成の容易さだけが考慮されて付与されるか、混用されるものであって、それ自体で互いに区別される意味または役割を有するものではない。また、本明細書に開示された実施形態を説明するにあたって、関連した公知技術についての具体的な説明が本明細書に開示された実施形態の要旨を不明確にする恐れがあると判断される場合、その詳細な説明を省略する。また、添付された図面は、本明細書に開示された実施形態を容易に理解できるようにするためのものであり、添付された図面によって本明細書に開示された技術的思想が限定されず、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物ないし代替物を含むことと理解されるべきである。 Hereinafter, the embodiments disclosed herein will be described in detail with reference to the accompanying drawings, wherein identical or similar components are denoted by the same reference numerals regardless of the drawing number, Duplicate explanations about this will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed only for ease of drafting the specification and are It has no distinct meaning or role. In addition, in describing the embodiments disclosed in this specification, it is determined that the specific description of related known technologies may obscure the gist of the embodiments disclosed in this specification. If so, detailed description thereof will be omitted. In addition, the attached drawings are provided to facilitate understanding of the embodiments disclosed herein, and the technical ideas disclosed herein are not limited by the attached drawings. , to include any modifications, equivalents or alternatives falling within the spirit and scope of the invention.
第1、第2などのように、序数を含む用語は、様々な構成要素を説明するのに使用され得るが、上記構成要素等は、前記用語等により限定されるものではない。前記用語等は、1つの構成要素を他の構成要素から区別する目的にのみ使用される。 Terms including ordinal numbers, such as first, second, etc., may be used to describe various components, but these components are not limited by such terms. The terms are only used to distinguish one element from another.
ある構成要素が他の構成要素に「連結されて」いるまたは「接続されて」いると言及されたときには、その他の構成要素に直接的に連結されているまたは接続されていることもできるが、中間に他の構成要素が存在することもできると理解されるべきであろう。それに対し、ある構成要素が他の構成要素に「直接連結されて」いるまたは「直接接続されて」いると言及されたときには、中間に他の構成要素が存在しないことと理解されるべきであろう。 When a component is referred to as being "coupled" or "connected" to another component, it can also be directly coupled or connected to the other component; It should be understood that there may be other components in between. In contrast, when a component is referred to as being "directly coupled" or "directly connected" to another component, it should be understood that there are no other components in between. deaf.
単数の表現は、文脈上明白に異なるように意味しない限り、複数の表現を含む。 Singular expressions include plural expressions unless the context clearly dictates otherwise.
本出願において、「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものが存在することを指定しようとするものであり、1つまたは複数の他の特徴や数字、ステップ、動作、構成要素、部品、またはこれらを組み合わせたものの存在または付加可能性を予め排除しないことと理解されなければならない。 In this application, terms such as "including" or "having" are intended to specify the presence of the features, numbers, steps, acts, components, parts, or combinations thereof set forth in the specification. and does not preclude the possibility of the presence or addition of one or more other features, figures, steps, acts, components, parts, or combinations thereof.
一方、本発明は、互いに異なるターゲットドメインに対応する様々なイメージを生成できるイメージ生成システム及びこれを利用したイメージ生成方法を提供するものである。 Meanwhile, the present invention provides an image generation system capable of generating various images corresponding to different target domains and an image generation method using the same.
より具体的に、本発明は、単一のイメージ生成部を利用して、互いに異なるターゲットドメインに各々対応する互いに異なるイメージを生成できるイメージ生成システム及びこれを利用したイメージ生成方法を提供するものである。 More specifically, the present invention provides an image generation system and an image generation method using the same that can generate different images corresponding to different target domains using a single image generation unit. be.
さらに、本発明は、ターゲットドメインを基準に様々な外貌スタイルを有するイメージを生成できるイメージ生成システム及びこれを利用したイメージ生成方法を提供するものである。本発明は、イメージ生成システム及びこれを利用したイメージ生成方法に関するものであって、特に、本発明に係るイメージ生成システムは、「イメージトゥイメージ(image to image)変換(translation)」に基づいてイメージを生成できる。 Further, the present invention provides an image generation system and an image generation method using the same that can generate images having various appearance styles based on a target domain. More particularly, the present invention relates to an image generation system and an image generation method using the same, and more particularly, the image generation system according to the present invention generates an image based on "image to image translation". can generate
ここで、「イメージトゥイメージ変換」とは、与えられた入力イメージを基に新しいイメージを生成することを意味する。より具体的に、イメージトゥイメージ変換では、入力イメージの少なくとも一部分を変換することで、新しいイメージを生成することを意味できる。 Here, "image-to-image conversion" means generating a new image based on a given input image. More specifically, image-to-image transformation can mean generating a new image by transforming at least a portion of an input image.
本発明は、特に、「イメージトゥイメージ変換」を行うにあたって、単一の「イメージ生成部」だけで、様々なスタイル及びドメインに該当する新しいイメージを生成できるイメージ生成システムに関するものである。 More particularly, the present invention relates to an image generation system capable of generating new images for various styles and domains with only a single "image generator" in performing "image-to-image conversion".
このとき、イメージ生成部は、同じドメインに対する様々なスタイルのイメージを生成する、または、互いに異なるドメインに対する同じスタイルのイメージを生成できる。以下では、本発明に係るイメージ生成システムについて添付された図面とともにより具体的に説明する。図1及び図2は、本発明に係るイメージ生成システム及びこれを利用したイメージ生成方法を説明するための概念図であり、図3は、本発明に係るイメージ生成方法を説明するためのフローチャートである。 At this time, the image generator may generate images of various styles for the same domain, or may generate images of the same style for different domains. Hereinafter, the image generation system according to the present invention will be described in more detail with reference to the attached drawings. 1 and 2 are conceptual diagrams for explaining an image generation system and an image generation method using the same according to the present invention, and FIG. 3 is a flowchart for explaining the image generation method according to the present invention. be.
図1に示されたように、本発明に係るイメージ生成システム100は、生成部(generator、または、イメージ生成部、110)及びスタイルコード入力部120を備えるように構成されることができる(以下、説明の都合上、「生成部110」は「イメージ生成部110」と命名する)。さらに、イメージ生成システム100は、入力部130及び出力部140のうち、少なくとも1つをさらに備えることができる。
As shown in FIG. 1, an
イメージ生成部110は、入力部130を介して入力されるイメージを基にイメージを生成し、生成されたイメージは、出力部140を介して出力されることができる。
The
本発明では、説明の都合上、イメージ生成部110に、イメージ生成のために入力されるイメージを「ソースイメージ(source image)」と命名する。
In the present invention, for convenience of explanation, an image input to the
ここで、ソースイメージは、イメージ変換(または、イメージ生成)の基になるイメージを意味できる。イメージ生成部110は、ソースイメージを基に新しいイメージを生成できる。図1に示されたように、ソースイメージ100aは、入力部130を介してイメージ生成部110に入力されることができる。
Here, a source image can mean an image that is the basis of image transformation (or image generation). The
さらに、本発明では、説明の都合上、イメージ生成部110により生成されたイメージを「合成イメージ(または、出力イメージ)」と命名する。図1に示されたように、合成イメージ200は、出力部140を介して出力されることができる。
Furthermore, in the present invention, for convenience of explanation, the image generated by the
このように、イメージ生成部110は、入力部130を介して入力されるソースイメージ100aを基に、基準イメージ100bを用いて合成イメージ200を生成できる。
As such, the
このとき、イメージ生成部110は、スタイルコード入力部120を介して入力されるスタイルコードを用いて合成イメージ200を生成できる。
At this time, the
図1に示されたように、ソースイメージ100aには、少なくとも1つのグラフィックオブジェクト(例えば、人のイメージ)が含まれ得る。イメージ生成部110は、このようなグラフィックオブジェクト(または、第1のグラフィックオブジェクト)に、スタイルコードによる外貌スタイルを反映して合成イメージ200を生成できる。
As shown in FIG. 1,
本発明において、グラフィックオブジェクトは、人、動物、自動車、花、かばん、山などのように、事物に対するイメージと理解されることができる。 In the present invention, graphic objects can be understood as images of things, such as people, animals, cars, flowers, bags, mountains, and the like.
本明細書では、説明の都合上、ソースイメージ100aに含まれたグラフィックオブジェクトを「第1のグラフィックオブジェクト」と命名する。そして、合成イメージ200に含まれたグラフィックオブジェクトを「第3のグラフィックオブジェクト」と命名する。そして、基準イメージ100bに含まれたグラフィックオブジェクトを「第2のグラフィックオブジェクト」と命名する。さらに、第2のグラフィックオブジェクトは、基準イメージ100bに含まれたものだけでなく、ガウス分布から抽出されるノイズ情報によって特定されるオブジェクトを意味できる。このような、ガウス分布から抽出されるオブジェクトは、スタイルコードの抽出対象(または、スタイルコードを抽出するために参照される対象)とも表現することができる。
In this specification, for convenience of explanation, the graphic object contained in the
すなわち、第2のグラフィックオブジェクトは、基準イメージ(reference image)100bに含まれるか、または複数の基準イメージに対するデータ分布によるガウス分布の特定ノイズに対応することができる。
That is, the second graphical object may correspond to Gaussian-distributed specific noise contained in the
以下では、説明の都合上、ガウス分布の特定ノイズに対応する第2のグラフィックオブジェクトについて別に称さずに、全て「基準イメージ」と統一して説明する。 In the following, for convenience of explanation, the second graphic object corresponding to the specific noise of Gaussian distribution will not be specifically referred to, and will be uniformly explained as a "reference image".
すなわち、以下では、説明の都合上、第2のグラフィックオブジェクトと基準イメージとを同じ意味として説明する。したがって、以下において基準イメージは、ガウス分布により特定されるオブジェクトを意味することもできる。 That is, hereinafter, for convenience of explanation, the second graphic object and the reference image have the same meaning. Therefore, reference image in the following can also mean an object specified by a Gaussian distribution.
また、本明細書では、ソースイメージと第1のグラフィックオブジェクトとを互いに同じ意味として使用することができる。すなわち、ソースイメージの外貌スタイルは、つまり、第1のグラフィックオブジェクトの外貌スタイルを意味できる。 Also, the terms source image and first graphic object may be used interchangeably herein. That is, the appearance style of the source image can mean the appearance style of the first graphic object.
ここで、スタイルコードは、基準イメージ100bの外貌スタイルと関連することができる。「外貌スタイル」は、基準イメージ100bの視覚的な外観を定義できる要素であって、ヘアスタイル(または、頭髪スタイル)、性別など、様々な要素によって決定されることができる。
Here, the style code can be associated with the appearance style of the
前述したように、基準イメージ100bは、ソースイメージ100aの外貌スタイルを変更するために参照される対象を意味できる。
As described above, the
このように、イメージ生成部110は、ソースイメージ100aに、基準イメージの外貌スタイルに該当するスタイルコードを反映することにより、前記基準イメージの外貌スタイルが反映された合成イメージ200を生成できる。
As such, the
本発明において、合成イメージ200を生成するとは、ソースイメージ100a、すなわち、第1のグラフィックオブジェクトの外貌スタイルを、基準イメージ100bの外貌スタイルを参照して変換(または、変更)することを意味できる。その結果、本発明では、第1のグラフィックオブジェクトの一部分が基準イメージの外貌スタイルに変換された合成イメージが生成され得る。
In the present invention, generating the
一方、本発明において、スタイルコードは、スタイル情報及びドメイン特性情報を含むことができる。このとき、スタイル情報は、ドメイン特性情報によるドメインと関連したスタイルに関する情報でありうる。 Meanwhile, in the present invention, the style code can include style information and domain property information. At this time, the style information may be information related to the style associated with the domain according to the domain characteristic information.
イメージ生成部110は、スタイルコードに含まれたスタイル情報及びドメイン特性情報に基づいて、ソースイメージ100a(より具体的には、ソースイメージ100aに含まれた第1のグラフィックオブジェクト)の外貌スタイルを変換することにより合成イメージ200を生成できる。このとき、イメージ生成部110は、合成イメージ200が、スタイルコードに含まれたドメイン特性情報に対応するドメインを有するように、前記ソースイメージ100aを基に合成イメージ200を生成できる。
The
その結果、合成イメージ200に含まれた第3のグラフィックオブジェクトは、第1のグラフィックオブジェクトに、前記スタイルコードに含まれたスタイル情報及びドメイン特性情報が反映されたグラフィックオブジェクトでありうる。すなわち、第3のグラフィックオブジェクトは、第1のグラフィックオブジェクトに第2のグラフィックオブジェクトの外貌スタイルが合成されたイメージでありうる。
As a result, the third graphic object included in the
このように、本発明では、スタイル情報及びドメイン特性情報が含まれたスタイルコードを用いて、ソースイメージ100aを基にする合成イメージ200を生成できる。
As such, the present invention can generate the
すなわち、本発明に係るイメージ生成システム100は、ソースイメージ100aの特定ドメインを基準イメージ100bの特定ドメインに変更することにより合成イメージ200を生成できる。
That is, the
スタイルコードは、図2に示されたように、それぞれの基準イメージ101b、102b、103b、104b、105b、106bに対するスタイル及びドメインに関する情報を含むことができる。
The style code can include information about the style and domain for each
このとき、スタイルコードは、図2に示されたように、ベクトル(vector)形式を有するようになされることができる。さらに、スタイルコード入力部120は、このようなベクトル形式を有するスタイルコードを、適応インスタンス正規化(adaptive instance normalization)(AdaIN)を介してイメージ生成部110に入力することができる。
At this time, the style code may have a vector format as shown in FIG. Furthermore, the style
上述したように、スタイルコードは、基準イメージ100bのスタイル及びドメインを特定するための、スタイル情報及びドメイン特性情報を含むことができる。以下では、本発明に対する理解を助けるために、スタイル情報、ドメイン、及びドメイン特性情報が有する意味について説明する。
As noted above, the style code may include style information and domain property information to identify the style and domain of the
まず、「スタイル情報」は、グラフィックオブジェクトが有する外貌スタイル、すなわち、視覚的特徴(または、視覚的外観)に関する情報を意味する。 First, 'style information' means information about the appearance style of a graphic object, that is, visual characteristics (or visual appearance).
ここで、視覚的特徴は、頭髪スタイルなどのように、目に見える外貌(appearance)と関連した特徴を意味できる。 Here, visual features may refer to features related to visible appearance, such as hairstyles.
このようなスタイル情報は、複数のカテゴリー(または、スタイルカテゴリー、属性(attribute)などと命名可能である)のうち、少なくとも1つのカテゴリーに対する特徴情報を含むことができる。 Such style information may include characteristic information for at least one category of a plurality of categories (or which may be named style categories, attributes, etc.).
ここで、カテゴリーまたは属性は、グラフィックオブジェクトが有する意味のある視覚的特徴を区分するための区分基準であると理解されることができる。また、カテゴリーは、グラフィックオブジェクトの外貌スタイルを定義するための要素であると理解されることができる。 Here, categories or attributes can be understood as classification criteria for classifying meaningful visual features of graphic objects. A category can also be understood as an element for defining the appearance style of a graphic object.
一方、カテゴリーに対する特徴情報は、グラフィックオブジェクトが当該カテゴリーにおいて「どのような視覚的特徴を有するか」をデータとして表現したことを意味できる。 On the other hand, feature information for a category can mean that "what kind of visual feature the graphic object has in the category" is expressed as data.
このとき、「カテゴリーに対する特徴情報」は、「属性値(attribute value)」とも命名されることができる。 At this time, the 'feature information for the category' may also be named 'attribute value'.
「カテゴリー(または、属性)」についてより具体的に説明すれば、グラフィックオブジェクトの外貌スタイル、すなわち、視覚的特徴を表現するためのカテゴリー(または、属性)の種類は非常に様々でありうる。 To be more specific about "categories (or attributes)", the types of categories (or attributes) for representing the appearance style, ie visual characteristics, of graphic objects can vary greatly.
例えば、性別、年齢、ヘアスタイル(頭髪スタイル)、ヘア色相(頭髪色相)、皮膚色相、メーキャップ(化粧)、ひげ、顔型、表情、メガネ、アクセサリー、眉毛形状、目形状、口唇形状、鼻形状、耳形状、人中形状などが全てそれぞれの個別カテゴリー(または、属性)と理解されることができる。 For example, gender, age, hairstyle (hair style), hair color (hair color), skin color, makeup (makeup), beard, face shape, expression, glasses, accessories, eyebrow shape, eye shape, lip shape, nose shape , ear shape, philtrum shape, etc. can all be understood as respective individual categories (or attributes).
スタイル情報は、カテゴリーに対する識別情報(カテゴリー種類、カテゴリーインデックス情報等)及び当該カテゴリーに対する特徴情報を全て含むことができる。 The style information may include both identification information for the category (category type, category index information, etc.) and feature information for the category.
例えば、カテゴリーに対する識別情報は、「ヘアスタイル」であり、カテゴリーに対する特徴情報は、「金髪ウェーブ」でありうる。 For example, the identification information for the category may be "hair style" and the feature information for the category may be "blond hair wave".
このように、スタイルコードは、グラフィックオブジェクトの外貌スタイルを定義できる様々なカテゴリーのうち、少なくとも1つのカテゴリーに関する情報(カテゴリーに対する識別情報及びカテゴリーに対する特徴情報のうち、少なくとも1つを含む)を含むスタイル情報を含むことができる。 Thus, the style code includes information about at least one category (including at least one of identification information for the category and characteristic information for the category) among the various categories that can define the appearance style of the graphic object. It can contain information.
例えば、図1に示された合成イメージ200のうち、第1の合成イメージ201及び第2の合成イメージ202を「ヘアスタイル」カテゴリー観点で説明する。この場合、第1の合成イメージ201は、ヘアスタイルカテゴリーに対して、第1の基準イメージ101bによる「黒色ウェーブ髪201a」に該当するカテゴリーに対する特徴情報、すなわち、スタイル情報を有することができる。そして、第2の合成イメージ202は、ヘアスタイルカテゴリーに対して、第2の基準イメージ102bに該当する「前髪がある金髪ウェーブ髪202a」によるカテゴリーに対する特徴情報、すなわち、スタイル情報を有することができる。
For example, of the
このように、第1及び第2の合成イメージ201、202は、同じカテゴリー(例えば、「ヘアスタイル」カテゴリー)に対して互いに異なるスタイル情報を有することができる。
In this way, the first and second
したがって、スタイルコードにどのカテゴリーのどのような特徴を有するスタイル情報が含まれるかによって合成イメージの外貌スタイルが変わることができる。 Therefore, the appearance style of the synthesized image can be changed according to which category and what feature of the style information is included in the style code.
したがって、本発明に係るイメージ生成部110は、ソースイメージ100aに対して、基準イメージ100bの外貌スタイルから抽出されたスタイル情報を含むスタイルコードを反映できる。これにより、イメージ生成部110は、基準イメージ100bの外貌スタイルを有する合成イメージ200を生成できる。
Therefore, the
このように、イメージ生成部110は、スタイルコードに含まれたスタイル情報に基づいて、ソースイメージ100aの少なくとも1つのカテゴリーに対する変換を行うことができる。
As such, the
イメージ生成部110は、ソースイメージ(100a、または、第1のグラフィックオブジェクト)の外貌スタイルを定義するための複数のカテゴリーのうち、スタイル情報に含まれたカテゴリーと同一または対応するカテゴリーを基準に変換を行うことができる。
The
ここで、ソースイメージ100aの特定カテゴリーに対して変換を行うとは、ソースイメージ100aの特定カテゴリーに対する特徴情報または属性値を変換することであって、このような特徴情報が変更される場合、当該カテゴリーに対する視覚的外観が変わるようになる。
Here, converting a specific category of the
次に、ドメイン及びドメイン特性情報について説明する。 Next, domains and domain characteristic information will be described.
ドメイン(domain)は、前述した、イメージ(または、グラフィックオブジェクト)の外貌スタイルを区分する互いに異なる複数のカテゴリーのうち、基準になる少なくとも1つのカテゴリーに対する特徴情報(または、属性値)を意味できる。 A domain may mean feature information (or attribute values) for at least one category that is a reference among a plurality of different categories that classify appearance styles of images (or graphic objects).
ここで、「基準」は、イメージ変換の基準、イメージ分類の基準、またはイメージ区分の基準のように、様々な意味と受け入れられることができる。 Here, "criterion" can be taken to mean various things, such as an image transformation criterion, an image classification criterion, or an image segmentation criterion.
ドメイン(domain)は、互いに異なる複数のイメージが、「特定カテゴリーに対して互いに同じ属性値を有する」または「特定カテゴリーに対して互いに異なる共通属性値を有する」と表現するとき、「特定カテゴリーに対する属性値」がつまり、ドメインを意味できる。 When a plurality of different images "have the same attribute value for a specific category" or "have different common attribute values for a specific category", the domain is defined as " Attribute value" can mean domain.
例えば、複数のカテゴリーのうち、「性別」カテゴリーを基準にドメインを説明するとき、図2に示されたように、第1、第2、及び第3のイメージ201、202、203は、同じドメインを有する。そして、第4、第5、及び第6イメージ204、205、206も同じドメインを有する。しかし、第1、第2、及び第3のイメージ201、202、203のドメインは、第4、第5、及び第6のイメージ204、205、206のドメインと互いに異なることができる。すなわち、第1、第2、及び第3のイメージ201、202、203は、「女性」であり、第4、第5、及び第6のイメージ204、205、206のドメインは、「男性」である。このとき、「女性」または「男性」がつまり、ドメインを意味できる。
For example, when describing a domain based on the 'gender' category among a plurality of categories, as shown in FIG. have And the fourth, fifth and
このように、ドメインは、外貌スタイルと関連した様々なカテゴリーに対する属性値のうち、少なくとも1つであって、イメージの変換、イメージの分類、またはイメージの区分基準になる指標でありうる。 As such, the domain is at least one of attribute values for various categories related to the appearance style, and may be an image transformation, an image classification, or an index serving as an image classification criterion.
一方、スタイルコードに含まれたドメイン特性情報は、特定ドメイン(または、ターゲットドメイン)を表すデータであって、外貌スタイルを区分する特定カテゴリー(または、属性)及びこれに対する特徴情報(属性値)を含むことができる。 On the other hand, the domain characteristic information included in the style code is data representing a specific domain (or target domain), and includes a specific category (or attribute) that distinguishes the appearance style and characteristic information (attribute value) therefor. can contain.
一方、イメージ生成部110は、スタイルコードに含まれたドメイン特性情報に基づいて合成イメージ200のドメインを決定できる。
Meanwhile, the
前記イメージ生成部110は、合成イメージ200がスタイルコードに含まれたドメイン特性情報によるドメインを有するようにソースイメージ100aを変換できる。
The
ここで、スタイルコードに含まれたドメイン特性情報は、基準イメージの特定ドメインに関する情報でありうる。すなわち、イメージ生成部110は、合成イメージ200が、基準イメージの特定ドメインと同じドメインを有するようにソースイメージ100aを変換できる。
Here, the domain characteristic information included in the style code may be information about a specific domain of the reference image. That is, the
例えば、スタイルコードに第4、第5、及び第6の基準イメージ104b、105b、106bによる「男性」に該当する特定ドメインに対するドメイン特性情報が含まれた場合、イメージ生成部110により生成された第4、第5、及び第6のイメージ204、205、206は、「男性」ドメインを有することができる。
For example, when the style code includes domain characteristic information for a specific domain corresponding to 'male' according to the fourth, fifth, and
このように、イメージ生成部110は、合成イメージ204、205、206が基準イメージ(例えば、第4、第5、及び第6の基準イメージ104b、105b、106b)の特定ドメイン(例えば、男性)を有するように、ソースイメージ100aに前記ドメイン特性情報を反映できる。
In this way, the
このとき、イメージ生成部110は、ソースイメージ100aのドメインとスタイルコードに含まれたドメイン特性情報による特定ドメインとが異なる場合、これを考慮せずに合成イメージ200のドメインを決定できる。
At this time, if the domain of the
すなわち、イメージ生成部110は、ソースイメージ100aの特定ドメインと基準イメージ100bの特定ドメインとが異なる場合、ソースイメージ100aの特定ドメインより、前記基準イメージ100bの特定ドメインを優先して、合成イメージ(または、第3のグラフィックオブジェクト)のドメインを決定できる。その結果、合成イメージ200は、基準イメージ100bの特定ドメインを有する。
That is, when the specific domain of the
一方、イメージ生成部110は、スタイルコードに基づいてソースイメージ100aを変換する場合、ソースイメージ100aの外貌的正体性を決定する少なくとも1つの外貌特徴部分を基準に、残りの部分に対する外貌スタイルを変更できる。
On the other hand, when transforming the
より具体的に、ソースイメージ100aは、前記ソースイメージ100aの外貌的正体性を決定する少なくとも1つの外貌特徴部分を含むことができる。イメージ生成部100aは、ソースイメージ100aの外貌特徴部分を除いた残りの部分を中心に、前記ソースイメージ100aに対して基準イメージ100bの外貌スタイルを反映できる。このとき、基準イメージ100bの外貌スタイルは、スタイルコードに含まれたドメイン特性情報に対応する基準イメージの特定ドメインを基準に定義された外貌スタイルを意味できる。
More specifically, the
ソースイメージ100a及び基準イメージ100bが人に対応する場合、前記ソースイメージ100aの前記外貌特徴部分は、人の目、鼻、及び口のうち、少なくとも1つに対応する部分でありうる。このとき、前記基準イメージ100bの外貌スタイルは、人の頭髪スタイル、ひげ、年齢、皮膚色、メーキャップのうち、少なくとも1つと関連したものでありうる。
When the
一方、前記ソースイメージ100aの外貌的正体性を決定する要素は様々でありうるし、イメージ生成部110は、合成イメージ200の合成目的によって、外貌的正体性を決定する要素を異なるように決定することができる。
On the other hand, there may be various factors that determine the appearance identity of the
イメージ生成部110において、どの部分を外貌的正体性と決定するか否かは、予め入力された情報に基づいて決定されることも可能である。
In the
例えば、合成イメージ200の目的が特定人物に対する様々な頭髪スタイルの変化を表すことであるならば、このとき、外貌的正体性を表す外貌特徴部分は、特定人物の目、鼻、口、顔型などに対応する部分でありうる。
For example, if the purpose of the
その結果、図1に示されたように、イメージ生成部110は、ソースイメージ100aの外貌的正体性に該当する外貌特徴部分を除いた残りの部分を中心に、前記ソースイメージ100aに対して基準イメージ100bの外貌スタイル(例えば、ヘアスタイル)を反映できる。その結果、ソースイメージ100aの外貌的正体性を維持しながら、基準イメージ100bの外貌スタイルを有する合成イメージ200が生成され得る。
As a result, as shown in FIG. 1, the
一方、ここで、外貌的正体性は、ソースイメージ100aに含まれたグラフィックオブジェクトのポーズ(pose)または姿勢を含むことができる。
Meanwhile, here, the physical identity may include poses or postures of graphic objects included in the
すなわち、イメージ生成部110は、ソースイメージ100aに含まれたグラフィックオブジェクトのポーズと同じポーズを有するグラフィックオブジェクトが含まれるように合成イメージ200を生成できる。
That is, the
このように、本発明に係るイメージ生成システム100は、入力部110を介してソースイメージを受信し(S310)、スタイルコード入力部120を介して外貌スタイルと関連したスタイルコードを受信する(S320)。そして、受信されたスタイルコードを用いて、スタイルコードに対応する外貌スタイルが反映されたイメージを生成できる(S330)。
As described above, the
以上で説明したように、本発明に係るイメージ生成システム100は、イメージ生成部110にドメインの特性情報を含むスタイルコードに基づいて合成イメージを生成できる。
As described above, the
以下では、スタイルコードを生成する方法について添付された図面とともにより具体的に説明する。図4、図5、及び図6は、本発明に係るマッピングネットワークを利用してスタイルコードを生成する方法を説明するための概念図である。 Hereinafter, a method for generating the style code will be described in more detail with attached drawings. 4, 5, and 6 are conceptual diagrams for explaining a method of generating style codes using a mapping network according to the present invention.
前述したように、本発明に係るイメージ生成部110は、スタイルコード入力部120を介して入力されるスタイルコードにより、ソースイメージ100aにおいてどのドメインを基準にイメージを変換するかを決定できる。
As described above, the
すなわち、スタイルコードは、特定ドメイン(または、ターゲットドメイン)に対するドメイン特性情報及び前記特定ドメインを基準に抽出されたスタイル情報を含むことができる。一方、スタイルコードに含まれたドメイン特性情報に基づいて、ソースイメージ100aの変換対象ターゲットドメインが決定される。
That is, the style code may include domain characteristic information for a specific domain (or target domain) and style information extracted based on the specific domain. On the other hand, the target domain to be transformed of the
このようなスタイルコードは、図4に示されたマッピングネットワーク400から抽出されることができる。イメージ生成部110は、マッピングネットワーク400から抽出されたスタイルコードを用いて、ソースイメージの特定ドメインを、スタイルコードに含まれたドメイン特性情報による特定ドメイン(または、ターゲットドメイン)に変換することができる。
Such style codes can be extracted from the
より具体的に、図4に示されたように、マッピングネットワーク400は、マッピングネットワーク部410、入力部420、及び出力部430のうち、少なくとも1つを備えることができる。
More specifically, as shown in FIG. 4, the
マッピングネットワーク部410は、ガウス分布400aからノイズ情報(z1ないしz7)を抽出し、抽出されたノイズ情報を利用してスタイルコードを生成できる。
The
このようなノイズ情報は、潜在コード(latent code)とも命名されることができる。 Such noise information can also be named latent code.
マッピングネットワーク部410は、ガウス分布400aからランダムにサンプリングを行うことにより、様々なドメイン及び様々なスタイルを有する様々なスタイルコードを生成できる。
マッピングネットワーク部410は、このようなガウス分布400aからサンプリングを行ってノイズ情報(潜在コードまたはノイズ)を抽出できる。このように抽出されたノイズ情報は、特定ドメインに対するスタイル情報になることができる。
The
マッピングネットワーク部410は、スタイルコードに反映しようとする特定ドメインの情報とガウス分布400aから抽出された特定ノイズ情報とを組み合わせることができる。そして、マッピングネットワーク部410は、前記組み合わせに基づいて、特定ドメインに対する特性情報及び前記抽出された特定ノイズ情報に対応するスタイル情報を含むスタイルコードを生成できる。
The
このとき、ガウス分布400aは、複数のイメージに対するものであって、複数のイメージに対するデータセット(data set)の確率分布でありうる。
At this time, the
前述したように、マッピングネットワーク部410は、ノイズ情報からスタイルコードを変換するとき、変換されたスタイルコードにドメインの情報が含まれるようにスタイルコードを生成できる。
As described above, when the
例えば、図5に示されたように、ガウス分布400aから特定ノイズ情報z1が抽出された場合、当該ノイズ情報z1がどのドメインに対することであるかによって、互いに異なるスタイルコードが生成され得る。
For example, as shown in FIG. 5, when specific noise information z1 is extracted from the
すなわち、マッピングネットワーク部400は、ガウス分布400aから同一ノイズ情報が抽出されても、基準になるドメインによって、互いに異なるスタイルコードを生成できる。
That is, the
このために、マッピングネットワーク部400は、互いに異なるドメインに対するスタイルコードを出力するための複数の出力分岐があるMLP(multilayer perceptron)(MLP with multiple output branches)で構成されることができる。このような、同じノイズ情報に対して互いに異なるスタイルコードが生成され得る。この場合、互いに異なるスタイルコードは、各々互いに異なるターゲットドメインに対応することができる。
To this end, the
より具体的に、図5において特定ノイズ情報z1は、図1及び図2において説明した基準イメージ101bを表すためのデータを含むことができる。
More specifically, the specific noise information z1 in FIG. 5 can include data representing the
マッピングネットワーク部410は、基準イメージ101bに対応するノイズ情報zからスタイルコードを生成できる。この場合、マッピングネットワーク部410は、互いに異なる様々なドメインを基準にスタイルコードを生成できる。すなわち、マッピングネットワーク部400は、特定ドメインを基準に互いに異なるスタイルコードを生成できる。
The
例えば、図5に示されたように、スタイルコードに含まれる特定ドメイン(ターゲットドメイン)の基準が「性別」である場合、マッピングネットワーク部410は、基準イメージ101bの性別(例えば、「女性」)がドメイン特性情報として含まれるようにスタイルコードを生成できる。
For example, as shown in FIG. 5, when the criterion of the specific domain (target domain) included in the style code is "gender", the
このとき、マッピングネットワーク部410は、ノイズ情報zから前記特定ドメインが有する特徴(例えば、「女性」の特徴:長髪、化粧)を中心にスタイル情報を抽出できる。
At this time, the
さらに他の例として、図5に示されたように、スタイルコードに含まれる特定ドメイン(ターゲットドメイン)の基準が「年齢」である場合、マッピングネットワーク部410は、基準イメージ101bの年齢(例えば、「若者」)がドメイン特性情報として含まれるようにスタイルコードを生成できる。
As yet another example, as shown in FIG. 5, when the criterion of the specific domain (target domain) included in the style code is "age", the
このとき、マッピングネットワーク部410は、ノイズ情報zから前記特定ドメインが有する特徴(例えば、「若い女性」の特徴:滑らかな皮膚、化粧)を中心にスタイル情報を抽出できる。
At this time, the
また、図示したように、マッピングネットワーク部410は、ヘアカラー、皮膚カラー、ヘアスタイル、顔型など、様々なターゲットドメインを基準に、ノイズ情報zからスタイル情報を抽出できる。
Also, as illustrated, the
一方、本発明において、「ターゲットドメインを基準にスタイル情報を抽出する」とは、ノイズ情報zから、ターゲットドメインと関連した特徴(例えば、ターゲットドメインが女性である場合、長髪、化粧)と関連した外貌的な特徴を有するスタイル情報を抽出することを意味できる。 On the other hand, in the present invention, ``extracting style information based on the target domain'' means that, from the noise information z, features associated with the target domain (for example, if the target domain is female, long hair, makeup) It can mean extracting style information with appearance features.
このように、本発明に係るマッピングネットワーク部410は、複数の基準イメージに対するガウス分布から基準イメージ101bに対応するノイズ情報zを抽出し、前記抽出されたノイズ情報zを利用して、基準イメージ101bの外貌スタイルと関連したスタイルコードを生成できる。
As described above, the
前述したように、マッピングネットワーク部410は、前記ノイズ情報に前記第2のグラフィックオブジェクトの外貌スタイルに基づいて分類可能な複数のドメインのうち、いずれか1つのドメイン(または、ターゲットドメイン、特定ドメイン)を基準にスタイルコードを生成できる。したがって、スタイルコードは、前記いずれか1つのドメイン(ターゲットドメイン)によるドメイン特性情報が反映されて存在することができる。
As described above, the
一方、図5に示されたように、スタイルコードは、ドメインを基準に互いに異なるスケール(scale)を有するベクトルで構成されることができる。 On the other hand, as shown in FIG. 5, the style code may consist of vectors having different scales based on the domain.
例え、図示されてはいないが、マッピングネットワーク400は、学習部をさらに備えることができる。マッピングネットワーク400の学習部は、抽出されたノイズ情報をスタイルコードに変換する学習を行うことができる。
For example, although not shown,
より具体的に、学習部は、抽出されたノイズ情報から、与えられた特定ドメインに対応するスタイル情報が抽出されるようにする学習を行うことができる。 More specifically, the learning unit can perform learning to extract style information corresponding to a given specific domain from the extracted noise information.
このような学習を介して、マッピングネットワーク部410は、ノイズ情報から前記特定ドメインが有する特徴(例えば、「女性」の特徴)をより正確に反映されるようにするスタイル情報を抽出できる。
Through such learning, the
すなわち、学習部は、マッピングネットワーク部410が、ノイズ情報から特定ドメイン(ターゲットドメイン)に対してありそうな(確率が高い)スタイル情報を抽出させる学習を進行できる。マッピングネットワーク部410は、特定ドメインに対してありそうなスタイル情報を含むスタイルコードを生成することにより、ソースイメージをより実際に近く変換することができる。
That is, the learning unit can perform learning for the
例えば、ターゲットドメインが女性である場合、初期にマッピングネットワーク部410から抽出されたスタイルコードに「ひげ」に対するスタイル情報が含まれた場合、学習を介して、「ひげ」に対するスタイル情報が除外され得る。
For example, when the target domain is female, if the style code initially extracted from the
一方、マッピングネットワーク400は、ガウス分布内に存在するノイズ情報に基づいてスタイルコードを生成するので、連続する隣接したノイズ情報は、類似したスタイル情報を含むことができる。
On the other hand, because the
したがって、図1において説明したソースイメージ100aに対し、ターゲットドメインを「女性」としてイメージ変換を行う場合、図5において説明した特定ノイズ情報z及びこれと隣接したノイズ情報に基づいて生成されたスタイルコードにより合成されたイメージ610、620、630、640、660は、図6に示されたように、隣り合った合成イメージと互いに類似した外貌スタイルを有することができる。
Therefore, when the
以上で説明したように、本発明に係るマッピングネットワークシステムは、ノイズ情報から様々なドメインに対するスタイルコードを生成できる。さらに、イメージ生成部110は、このようなスタイルコードを用いて、ソースイメージに対する様々なドメインの変更を行いながら、様々なスタイルを有する合成イメージを生成できる。
As explained above, the mapping network system according to the present invention can generate style codes for various domains from noise information. In addition, the
一方、以上では、マッピングネットワークシステムを利用してスタイルコードを生成する方法について説明したが、本発明では、スタイルエンコーダを用いて、スタイルコードを生成することも可能である。以下では、スタイルエンコーダを活用してスタイルコードを生成する方法について添付された図面とともにより具体的に説明する。図7及び図8は、本発明に係るスタイルエンコーダを用いてスタイルコードを生成する方法を説明するための概念図である。 On the other hand, although the method of generating the style code using the mapping network system has been described above, the style encoder can also be used to generate the style code in the present invention. Hereinafter, a method of generating a style code using a style encoder will be described in more detail with attached drawings. 7 and 8 are conceptual diagrams for explaining a method of generating style codes using the style encoder according to the present invention.
前述したように、本発明に係るイメージ生成部110は、スタイルコード入力部120を介して入力されるスタイルコードを介して、ソースイメージ100aでどのドメインを基準にイメージを変換するかを決定できる。
As described above, the
すなわち、スタイルコードは、特定ドメイン(または、ターゲットドメイン)に対するドメイン特性情報及び前記特定ドメインを基準に抽出されたスタイル情報を含むことができる。一方、スタイルコードに含まれたドメイン特性情報に基づいてソースイメージ100aの変換対象ターゲットドメインが決定される。
That is, the style code may include domain characteristic information for a specific domain (or target domain) and style information extracted based on the specific domain. Meanwhile, the target domain to be transformed of the
このようなスタイルコードは、図7に示されたスタイルエンコーダシステム700から抽出されることができる。イメージ生成部110は、スタイルエンコーダシステム700から抽出されたスタイルコードを用いて、ソースイメージの特定ドメインを、スタイルコードに含まれたドメイン特性情報による特定ドメイン(または、ターゲットドメイン)に変換することができる。
Such style code can be extracted from the
より具体的に、図7に示されたように、スタイルエンコーダシステム700は、スタイルエンコーダ710、入力部720、及び出力部730のうち、少なくとも1つを備えることができる。
More specifically, the
スタイルエンコーダ710は、入力部720を介して入力される基準イメージ(701ないし703)から特定ドメイン(または、ターゲットドメイン)を基準にスタイル情報を抽出できる。そして、スタイルエンコーダ部710は、抽出されたスタイル情報及び特定ドメインに対するドメイン特性情報を利用してスタイルコードを生成できる。
The
スタイルエンコーダ710は、基準イメージ101b(図7の図面符号701ないし706参照)から、基準イメージ101bの外貌スタイルと関連したスタイル情報を抽出できる。
The
このとき、スタイルエンコーダ710は、基準イメージから、前記基準イメージ101bの外貌スタイルを基に分類可能な複数のドメインのうち、いずれか1つのドメインを基準に前記スタイル情報を抽出できる。ここで、いずれか1つのドメインは、特定ドメインまたはターゲットドメインと命名されることができる。
At this time, the
図8に示された基準イメージ701を例を挙げて説明すれば、スタイルエンコーダ710は、基準イメージ701から、基準イメージ701の外貌スタイルを基に分類可能な複数のドメイン(例えば、女性、黒色の長髪、白色皮膚など)のうち、いずれか少なくとも1つのドメイン(例えば、女性)を基準にスタイル情報を抽出できる。
Using the
ここで、基準になるドメインは、前述したように、ターゲットドメインと命名されることができる。スタイルエンコーダ710は、基準イメージ701から互いに異なるターゲットドメインに各々該当するスタイル情報を抽出し、これを利用してスタイルコードを生成できる。
Here, the reference domain can be named the target domain as described above. The
例えば、図8に示されたように、スタイルコードに含まれる特定ドメイン(ターゲットドメイン)の基準が「性別」である場合、スタイルエンコーダ710は、基準イメージ701の性別(例えば、「女性」)がドメイン特性情報として含まれるようにスタイルコードを生成できる。
For example, as shown in FIG. 8, if the criteria for the specific domain (target domain) included in the style code is 'gender', the
このとき、スタイルエンコーダ710は、基準イメージ701から前記特定ドメインが有する特徴(例えば、「女性」の特徴:長髪、化粧)を中心にスタイル情報を抽出できる。
At this time, the
さらに他の例として、図8に示されたように、スタイルコードに含まれる特定ドメイン(ターゲットドメイン)の基準が「年齢」である場合、スタイルエンコーダ710は、基準イメージ701の年齢(例えば、「若者」)がドメイン特性情報として含まれるようにスタイルコードを生成できる。
As yet another example, as shown in FIG. 8, if the criteria for the specific domain (target domain) included in the style code is "age", the
このとき、スタイルエンコーダ710は、基準イメージ701から前記特定ドメインが有する特徴(例えば、「若い女性」の特徴:滑らかな皮膚、化粧)を中心にスタイル情報を抽出できる。
At this time, the
また、図示したように、スタイルエンコーダ710は、ヘアカラー、皮膚カラー、ヘアスタイル、顔型など、様々なターゲットドメインを基準に、基準イメージ701からスタイル情報を抽出できる。
Also, as shown, the
そして、このように抽出されたスタイル情報は、基準になるターゲットドメインに該当するドメイン特性情報を含んで、互いに異なるスタイルコードとして生成されることができる。 The style information thus extracted can be generated as different style codes including domain characteristic information corresponding to a target domain serving as a reference.
前述したように、スタイルエンコーダ710は、基準イメージ701の外貌スタイルを基に分類可能な複数のドメイン(例えば、性別、頭髪スタイル等)のうち、いずれか1つのドメイン(または、ターゲットドメイン、特定ドメイン)を基準にスタイルコードを生成できる。したがって、スタイルコードは、前記いずれか1つのドメイン(ターゲットドメイン)によるドメイン特性情報が反映されて存在することができる。一方、図8に示されたように、スタイルコードは、ドメインを基準に互いに異なるスケール(scale)のベクトルで構成されることができる。
As described above, the
以上で説明したように、本発明に係るイメージ生成システムのイメージ生成部は、マッピングネットワークまたはスタイルエンコーダシステムを介して生成されたスタイルコードを用いて、ソースイメージの特定ドメインを基準イメージのターゲットドメインに変更することができる。 As described above, the image generation unit of the image generation system according to the present invention uses the style code generated through the mapping network or style encoder system to map the specific domain of the source image to the target domain of the reference image. can be changed.
一方、本発明に係るイメージ生成システムは、学習を介してイメージ生成の性能を高めることができ、以下では、学習過程について添付された図面とともにより具体的に説明する。図9は、本発明に係るイメージ生成システムを学習する方法を説明するための概念図である。 Meanwhile, the image generation system according to the present invention can improve the performance of image generation through learning. Hereinafter, the learning process will be described in detail with reference to the accompanying drawings. FIG. 9 is a conceptual diagram for explaining a method of learning an image generation system according to the present invention.
本発明では、様々な学習アルゴリズムを利用して、イメージ生成システムを学習させることが可能である。イメージ生成部(110、図1参照)は、スタイルコードによるターゲットドメインと区分されない合成イメージを作るようにする学習が進行される。 Various learning algorithms can be used in the present invention to train the image generation system. The image generator (110, see FIG. 1) is trained to create a synthetic image that is not classified with the target domain according to the style code.
例えば、図示されてはいないが、本発明に係るイメージ生成システム100は、学習部をおき、様々な学習アルゴリズムを利用してイメージ生成部110に対する学習を行うことができる。イメージ生成部110は、スタイルコードにより定義されるターゲットドメイン(例えば、黒髪)と、さらに類似または同一の合成イメージを生成するように学習されることができる。
For example, although not shown, the
一例として、学習部は、識別部(Discriminator、900)を利用して学習を進行できる。識別部900は、ターゲットドメイン(例えば、黒髪)を基準に、合成イメージ201と基準イメージ101bとを比較できる。そして、比較結果に基づいて、識別部900は、合成イメージ201が実際(または、本物)イメージ(real image)であるか、または、作られた偽物イメージ(fake image)であるかを判断できる。
For example, the learner may perform learning using a discriminator (900). The
識別部900は、合成イメージ201が実際イメージであると判断された場合、「1」の値を出力し、偽物イメージであると判断された場合、「0」の値を出力できる。
The identifying
さらに、学習部は、識別部900での比較結果に該当する、合成イメージ201と基準イメージ101との間の差値を用いてイメージ生成部110を学習できる。イメージ生成部110は、前記差値が最小になるようにするイメージを生成するように学習されることができる。
Further, the training unit can train the
また、例え、図示されてはいないが、スタイルエンコーダシステム700は、学習部をさらに備えることができる。スタイルエンコーダシステム700の学習部は、イメージ生成部110を介して生成された合成イメージから、前記合成イメージのスタイルコードが抽出されるように前記スタイルエンコーダを制御できる。ここで、合成イメージは、スタイルエンコーダ部710により生成されたスタイルコードにより生成されたイメージでありうる。
Also, although not shown, the
学習部は、スタイルエンコーダ710により生成されたスタイルコードが反映された合成イメージを利用してスタイルエンコーダ710を学習させることができる。
The learning unit may train the
より具体的に、学習部は、スタイルエンコーダ710に合成イメージを基準イメージとして入力し、合成イメージからスタイルコードを生成できる。このとき、ターゲットドメインは、合成イメージの生成に使用されたスタイルコードのターゲットドメインと同一に設定されることができる。
More specifically, the learning unit may input the synthesized image as a reference image to the
一方、学習部は、合成イメージを生成するために使用されたスタイルコード(または、基準イメージのスタイルコード、第1のスタイルコード)と、合成イメージから生成されたスタイルコード(または、合成イメージのスタイルコード、第2のスタイルコード)とを比較し、比較結果を利用してイメージ生成部110を学習させることができる。すなわち、イメージ生成部110を介して生成された合成イメージにターゲットドメインのスタイル情報が含まれているか判断し、判断結果に基づいてイメージ生成部110が学習される方式である。
On the other hand, the learning unit stores the style code used to generate the synthetic image (or the style code of the reference image, the first style code) and the style code generated from the synthetic image (or the style code of the synthetic image). code, second style code), and the
前記学習部は、前記比較結果、i)合成イメージを生成するために使用されたスタイルコード(または、基準イメージのスタイルコード、第1のスタイルコード)とii)合成イメージから生成されたスタイルコード(または、合成イメージのスタイルコード、第2のスタイルコード)とが互いに相違した場合、i)合成イメージを生成するために使用されたスタイルコード(または、基準イメージのスタイルコード、第1のスタイルコード)とii)合成イメージから生成されたスタイルコード(または、合成イメージのスタイルコード、第2のスタイルコード)との差値が最小になるようにイメージ生成部110を学習させることができる。このとき、学習部は、スタイル再構成損失(style reconstruction loss)関数を利用して学習を行うことができる。
The learning unit obtains the comparison result, i) the style code used to generate the synthetic image (or the style code of the reference image, the first style code) and ii) the style code generated from the synthetic image ( or i) the style code used to generate the synthesized image (or the style code of the reference image, the first style code) when the style code of the synthetic image and the style code of the second style are different from each other; and ii) the
一方、以上で説明した学習の方法の他にも、学習部は、様々な損失(loss)関数(例えば、ダイバーシティセンシティブ損失(diversity sensitive loss)関数、サイクル一貫性損失(cycle consistency loss))を利用して本発明に係るイメージ生成システムを学習させることができる。 Meanwhile, in addition to the learning methods described above, the learning unit uses various loss functions (e.g., diversity sensitive loss function, cycle consistency loss). can be used to train the image generation system according to the present invention.
上述したように、本発明に係るイメージ生成システム及びこれを利用したイメージ生成方法は、ドメインの特性を含むスタイルコードを用いて、スタイルコードに含まれたドメイン特性に該当するドメインを有するイメージを生成できる。 As described above, the image generation system and the image generation method using the same according to the present invention use the style code including the characteristics of the domain to generate an image having a domain corresponding to the domain characteristics included in the style code. can.
このとき、本発明では、スタイルコードにスタイル情報を含めることにより、スタイルコードだけで生成しようとするイメージのスタイル及びドメインを特定できる。 At this time, in the present invention, by including style information in the style code, the style and domain of the image to be generated can be specified only by the style code.
したがって、本発明によれば、スタイルコードにどのドメインによるドメイン特性が反映されているかによって、生成されるイメージのドメインが様々に定義され得る。 Therefore, according to the present invention, the domain of the generated image can be defined in various ways depending on which domain characteristic is reflected in the style code.
すなわち、本発明では、イメージ生成部に入力されるスタイルコードにドメインの特性を反映することにより、単一のイメージ生成部だけでも互いに異なる様々なドメインに対応する様々なイメージを生成できる。 That is, according to the present invention, by reflecting the characteristics of the domain in the style code input to the image generator, a single image generator can generate various images corresponding to different domains.
したがって、本発明によれば、ドメイン毎に別のイメージ生成部を備えなくとも、単一のイメージ生成部だけでも、様々なドメインに対する新しいイメージを生成できるドメイン側面での拡張性を提供できる。 Therefore, according to the present invention, it is possible to provide domain-side expandability that can generate new images for various domains with a single image generation unit without providing a separate image generation unit for each domain.
また、本発明は、スタイルコードにどのスタイルによるスタイル情報を含めるかによって、同じドメインに対して互いに異なるスタイルのイメージを生成できる。したがって、本発明は、スタイルコードに含まれるスタイル情報を変更させることだけでも、同じドメインに対する様々なスタイルのイメージを生成することにより、スタイル側面での多様性を提供できる。 In addition, the present invention can generate different styles of images for the same domain, depending on which style information is included in the style code. Therefore, the present invention can provide diversity in terms of style by generating images of various styles for the same domain simply by changing the style information contained in the style code.
一方、上記で説明した本発明は、コンピュータで1つ以上のプロセスによって実行され、このようなコンピュータ読み取り可能な媒体に格納可能なプログラムとして実現されることができる。 On the other hand, the present invention described above can be implemented as a program executable by one or more processes in a computer and storable on such computer-readable media.
さらに、上記で説明した本発明は、プログラムが記録された媒体にコンピュータ読み取り可能なコードまたは命令語として実現することが可能である。すなわち、本発明は、プログラムの形態で提供されることができる。 Furthermore, the present invention described above can be implemented as computer-readable codes or instructions on a program-recorded medium. That is, the present invention can be provided in the form of a program.
一方、コンピュータ読み取り可能な媒体は、コンピュータシステムによって読み取られることができるデータが格納されるあらゆる種類の記録装置を含む。コンピュータ読み取り可能な媒体の例では、HDD(Hard Disk Drive)、SSD(Solid State Disk)、SDD(Silicon Disk Drive)、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあり、また、キャリアウェーブ(例えば、インターネットを介しての送信)の形態で実現されることも含む。 A computer-readable medium, on the other hand, includes any type of recording device that stores data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. Yes, also including being embodied in the form of a carrier wave (eg, transmission over the Internet).
さらに、コンピュータ読み取り可能な媒体は、格納所を含み、電子機器が通信を介して接近できるサーバまたはクラウド格納所でありうる。 Additionally, the computer-readable medium includes storage and can be a server or cloud storage accessible via communication to the electronic device.
さらに、本発明では、上記で説明したコンピュータは、プロセッサ、すなわち、CPU(Central Processing Unit、中央処理装置)が搭載された電子機器であって、その種類に対して特別な限定をおかない。 Furthermore, in the present invention, the computer described above is an electronic device equipped with a processor, that is, a CPU (Central Processing Unit), and the type thereof is not particularly limited.
一方、上記の詳細な説明は、あらゆる面において制限的に解釈されてはならず、例示的なことと考慮されなければならない。本発明の範囲は、添付された請求項の合理的解釈により決定されなければならず、本発明の等価的範囲内での全ての変更は本発明の範囲に含まれる。 On the other hand, the above detailed description should not be construed as restrictive in all respects, but should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes that come within the equivalent scope of the invention are included within the scope of the invention.
Claims (6)
基準イメージの外貌スタイルと関連したスタイルコードを入力するスタイルコード入力部と、
前記スタイルコードを用いて、前記ソースイメージに前記基準イメージの外貌スタイルが反映された合成イメージを生成するイメージ生成部と、
前記基準イメージから、前記基準イメージの外貌スタイルと関連したスタイル情報を抽出するスタイルエンコーダであって、前記基準イメージから、前記基準イメージの特定ドメインを基準に前記スタイル情報を抽出し、前記スタイル情報及び前記基準イメージの特定ドメインによるドメイン特性情報が含まれた前記スタイルコードを生成する、スタイルエンコーダと、
を備え、
前記基準イメージの外貌スタイルは、前記基準イメージの特定ドメインと関連している、イメージ生成システム。 an image input for receiving a source image to be transformed;
a style code input unit for inputting a style code associated with the appearance style of the reference image;
an image generator for generating a composite image in which the source image reflects the appearance style of the reference image using the style code;
A style encoder for extracting style information related to an appearance style of the reference image from the reference image, extracting the style information from the reference image based on a specific domain of the reference image, and extracting the style information and a style encoder that generates the style code including domain characteristic information according to a specific domain of the reference image;
with
An image generation system, wherein the appearance style of the reference image is associated with a specific domain of the reference image.
前記ソースイメージの外貌的正体性を決定する少なくとも1つの外貌特徴部分を含み、
前記イメージ生成部は、
前記ソースイメージの外貌特徴部分を除いた残りの部分を中心に、前記ソースイメージに対して前記基準イメージの外貌スタイルを反映する、請求項1に記載のイメージ生成システム。 The source image is
comprising at least one feature feature that determines the feature identity of the source image;
The image generation unit
2. The image generation system of claim 1 , wherein the source image reflects the appearance style of the reference image around the rest of the source image except for the appearance feature portion.
前記ソースイメージの前記外貌特徴部分は、
人の目、鼻、及び口のうち、少なくとも1つに対応し、
前記基準イメージの外貌スタイルは、
人の頭髪スタイル、ひげ、年齢、皮膚色、メーキャップのうち、少なくとも1つと関連している、請求項2に記載のイメージ生成システム。 if the source image and the reference image correspond to a person,
The feature feature portion of the source image comprises:
corresponding to at least one of a person's eyes, nose and mouth;
The appearance style of the reference image is
3. The image generation system of claim 2 , associated with at least one of a person's hair style, beard, age, skin color, makeup.
前記識別部は、
前記基準イメージを基に、前記合成イメージが、前記基準イメージの特定ドメインに対して、前記イメージ生成部により生成された偽物イメージであるか否かを識別し、
識別結果、前記合成イメージが偽物イメージと識別された場合、前記基準イメージと前記合成イメージとが偽物イメージとの差値が最小化されるように前記イメージ生成部を学習させる、請求項1~3のいずれか1項に記載のイメージ生成システム。 further comprising an identification unit,
The identification unit
identifying, based on the reference image, whether the synthetic image is a fake image generated by the image generator for a specific domain of the reference image;
4. If the synthetic image is discriminated as a fake image as a result of identification, the image generating unit learns to minimize a difference value between the reference image and the synthetic image and the fake image. An image generation system according to any one of Claims 1 to 3.
前記学習部は、
スタイルエンコーダを用いて、前記合成イメージから前記基準イメージの特定ドメインと関連したスタイルコードを抽出し、
前記合成イメージのスタイルコードと前記基準イメージのスタイルコードとを比較し、
比較の結果、前記合成イメージのスタイルコードと前記基準イメージのスタイルコードとが互いに相違した場合、前記合成イメージのスタイルコードと前記基準イメージのスタイルコードとの差値が最小になるように前記イメージ生成部を学習させる、請求項1~4のいずれか1項に記載のイメージ生成システム。 further equipped with a learning part,
The learning unit
extracting style codes associated with a particular domain of the reference image from the synthetic image using a style encoder;
comparing the style code of the synthetic image with the style code of the reference image;
If the style code of the synthesized image and the style code of the reference image are different from each other as a result of the comparison, the image is generated so that the difference between the style code of the synthesized image and the style code of the reference image is minimized. 5. The image generation system according to any one of claims 1 to 4 , which trains a part.
基準イメージの外貌スタイルと関連したスタイルコードを受信するステップと、
前記スタイルコードを用いて、前記ソースイメージに前記基準イメージの外貌スタイルが反映された合成イメージを生成するステップと、
前記基準イメージから、前記基準イメージの外貌スタイルと関連したスタイル情報を抽出するステップと、
前記基準イメージから、前記基準イメージの特定ドメインを基準に前記スタイル情報を抽出するステップと、
前記スタイル情報及び前記基準イメージの特定ドメインによるドメイン特性情報が含まれた前記スタイルコードを生成するステップと、
を含み、
前記基準イメージの外貌スタイルは、前記基準イメージの特定ドメインと関連している、イメージ生成方法。 receiving a source image to be transformed;
receiving a style code associated with a reference image appearance style;
generating a composite image in which the source image reflects the appearance style of the reference image using the style code;
extracting from the reference image style information associated with the appearance style of the reference image;
extracting the style information from the reference image with reference to a specific domain of the reference image;
generating the style code including the style information and domain characteristic information according to a specific domain of the reference image;
including
An image generation method, wherein the appearance style of the reference image is associated with a specific domain of the reference image.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2020-0064860 | 2020-05-29 | ||
KR1020200064860A KR102427484B1 (en) | 2020-05-29 | 2020-05-29 | Image generation system and image generation method using the system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021190062A JP2021190062A (en) | 2021-12-13 |
JP7224323B2 true JP7224323B2 (en) | 2023-02-17 |
Family
ID=78849731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020169539A Active JP7224323B2 (en) | 2020-05-29 | 2020-10-07 | Image generation system and image generation method using the same |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7224323B2 (en) |
KR (1) | KR102427484B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102543451B1 (en) * | 2022-04-29 | 2023-06-13 | 주식회사 이너버즈 | Image feature extraction and synthesis system using deep learning and its learning method |
KR102515436B1 (en) * | 2022-08-01 | 2023-03-29 | 주식회사 어썸커머스 | Method, device and system for processing face makeup based on artificial intelligence |
KR102594578B1 (en) * | 2022-11-15 | 2023-10-27 | 주식회사 블록버스터랩 | Operating system and method for game rauncher |
KR102636155B1 (en) * | 2023-07-18 | 2024-02-13 | 주식회사 젠젠에이아이 | Method and system for generating image using content code |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021086462A (en) | 2019-11-28 | 2021-06-03 | 株式会社Preferred Networks | Data generation method, data generation device, model generation method, model generation device, and program |
JP2021111372A (en) | 2020-01-08 | 2021-08-02 | パロ アルト リサーチ センター インコーポレイテッド | System for and method of generating composite image using local edition |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10825219B2 (en) * | 2018-03-22 | 2020-11-03 | Northeastern University | Segmentation guided image generation with adversarial networks |
KR20200034028A (en) * | 2018-09-13 | 2020-03-31 | 정형록 | System and method for virtual fitting based on artificial intelligence |
KR102211400B1 (en) * | 2019-11-08 | 2021-02-03 | 송우상 | Apparatus and method for generating designs based on image and text |
-
2020
- 2020-05-29 KR KR1020200064860A patent/KR102427484B1/en active IP Right Grant
- 2020-10-07 JP JP2020169539A patent/JP7224323B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021086462A (en) | 2019-11-28 | 2021-06-03 | 株式会社Preferred Networks | Data generation method, data generation device, model generation method, model generation device, and program |
JP2021111372A (en) | 2020-01-08 | 2021-08-02 | パロ アルト リサーチ センター インコーポレイテッド | System for and method of generating composite image using local edition |
Non-Patent Citations (2)
Title |
---|
柳井啓司,"1章 質感の視覚工学 1-3 深層学習によるスタイル変換",映像情報メディア学会誌,一般社団法人映像情報メディア学会,2019年,第73巻, 第3号,p.413-417 |
金子卓弘, 外2名,"Conditional Filtered Generative Adversarial Networksを用いた生成的属性制御",情報処理学会研究報告,情報処理学会,2017年,Vol.2017-CVIM-208, No.36,p.213-220 |
Also Published As
Publication number | Publication date |
---|---|
KR102427484B1 (en) | 2022-08-05 |
KR20210147507A (en) | 2021-12-07 |
JP2021190062A (en) | 2021-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7224323B2 (en) | Image generation system and image generation method using the same | |
Zhang et al. | Stackgan: Text to photo-realistic image synthesis with stacked generative adversarial networks | |
JP7246811B2 (en) | Data processing method, data processing device, computer program, and computer device for facial image generation | |
JPWO2018012136A1 (en) | MAKE-UP SUPPORT DEVICE AND MAKE-UP SUPPORT METHOD | |
CN111108508B (en) | Face emotion recognition method, intelligent device and computer readable storage medium | |
CN114463827A (en) | Multi-modal real-time emotion recognition method and system based on DS evidence theory | |
Yi et al. | Quality metric guided portrait line drawing generation from unpaired training data | |
Olivier et al. | Facetunegan: Face autoencoder for convolutional expression transfer using neural generative adversarial networks | |
Liu et al. | Learning shape and texture progression for young child face aging | |
CN117152308B (en) | Virtual person action expression optimization method and system | |
CN116883608B (en) | Multi-mode digital person social attribute control method and related device | |
Na et al. | Miso: Mutual information loss with stochastic style representations for multimodal image-to-image translation | |
Thengane et al. | Cycle face aging generative adversarial networks | |
CN116385604B (en) | Video generation and model training method, device, equipment and storage medium | |
KR102247481B1 (en) | Device and method for generating job image having face to which age transformation is applied | |
Li et al. | A novel attribute-based generation architecture for facial image editing | |
Liu et al. | A3GAN: An attribute-aware attentive generative adversarial network for face aging | |
Otberdout et al. | Generating multiple 4d expression transitions by learning face landmark trajectories | |
Richmond et al. | Ultrax: An animated midsagittal vocal tract display for speech therapy | |
CN109509144B (en) | Face aging method based on countermeasure generation network and related to occupation | |
Liu et al. | Smooth image-to-image translations with latent space interpolations | |
Cakir et al. | Audio to video: Generating a talking fake agent | |
Chen et al. | Texture deformation based generative adversarial networks for multi-domain face editing | |
Sun et al. | AnyFace++: A Unified Framework for Free-style Text-to-Face Synthesis and Manipulation | |
Antal et al. | Feature axes orthogonalization in semantic face editing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201007 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20201026 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20210414 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20210412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220407 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220802 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221129 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221129 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221212 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7224323 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |