JP2021168078A - Image generation system and machine learning method for image generation system - Google Patents

Image generation system and machine learning method for image generation system Download PDF

Info

Publication number
JP2021168078A
JP2021168078A JP2020071769A JP2020071769A JP2021168078A JP 2021168078 A JP2021168078 A JP 2021168078A JP 2020071769 A JP2020071769 A JP 2020071769A JP 2020071769 A JP2020071769 A JP 2020071769A JP 2021168078 A JP2021168078 A JP 2021168078A
Authority
JP
Japan
Prior art keywords
image
input
output
learning model
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020071769A
Other languages
Japanese (ja)
Inventor
謙祐 横田
Kensuke Yokota
直樹 杉浦
Naoki Sugiura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Priority to JP2020071769A priority Critical patent/JP2021168078A/en
Publication of JP2021168078A publication Critical patent/JP2021168078A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image generation system that can produce original designs.SOLUTION: An image generation system 1 includes: an input section 2 in which an input image of a natural object is input; a recording section 3 which is designed to record a learning model that has been learned to output an image that is a crossover of the input image and an artificial object when the input image of the natural object is input; and an output section 4 which outputs the output image that is the crossover of the input image and the artificial object based on the input image input to the input section 2 and the learning model recorded in the recording section 3.SELECTED DRAWING: Figure 1

Description

本発明は、プロダクトデザインにおける画像生成システムに関する。 The present invention relates to an image generation system in product design.

さまざまな人工物が、それとは直接関係のないよう自然物をモチーフとしてデザインされる。従来は、こうした作業は、プロダクトデザイナーが、自身の経験に基づいて行っていた。 Various artificial objects are designed with natural objects as motifs so that they are not directly related to them. Traditionally, these tasks have been done by product designers based on their own experience.

日本国特開2001−076177号公報Japanese Patent Application Laid-Open No. 2001-0767177

しかしながら、プロダクトデザイナーが自身の経験に基づいて作成するデザインは、どうしても自身の過去の着想から逃れることができず、奇抜なデザインを着想することが難しかった。 However, the designs created by product designers based on their own experience cannot escape from their own past ideas, and it was difficult to come up with unusual designs.

そこで本発明は、奇抜なデザインを着想しうる画像生成システム、該画像生成システムに用いられるデザイン支援学習モデルの生成方法、およびこのデザイン支援学習モデルが搭載された画像提供装置の製造方法を提供する。 Therefore, the present invention provides an image generation system capable of conceiving an unusual design, a method of generating a design support learning model used in the image generation system, and a method of manufacturing an image providing device equipped with this design support learning model. ..

本発明の一側面によれば、
自然物の入力画像を入力する入力部と、
自然物の入力画像を入力すると前記入力画像と人工物とが掛け合わされた画像を出力するように学習された学習モデルが記録された記録部と、
前記入力部に入力された前記入力画像と前記記録部に記録された前記学習モデルに基づき、前記入力画像と前記人工物とが掛け合わされた出力画像を出力する出力部を備えた、画像生成システムが提供される。
According to one aspect of the invention
Input section for inputting images of natural objects and
A recording unit in which a learning model learned to output an image obtained by multiplying the input image and an artificial object when an input image of a natural object is input is recorded.
An image generation system including an output unit that outputs an output image obtained by multiplying the input image and the artificial object based on the input image input to the input unit and the learning model recorded in the recording unit. Is provided.

上記画像生成システムにおいて、
前記学習モデルは、前記入力画像を入力すると、前記入力画像と前記人工物とが掛け合わされた前記出力画像を出力するCycleGAN(Cycle-Consistent Generative Adversarial Networks)であって、
前記画像生成システムは、前記CycleGANにおいて前記入力画像から前記出力画像へ変換する際に画像の一貫性が損失される程度を示す係数λ1として、複数の異なる数値が設定された複数の学習済みモデルが記録された記録部を有していてもよい。
In the above image generation system
The learning model is a Cycle-Consistent Generative Adversarial Networks (Cycle-Consistent Generative Adversarial Networks) that outputs an output image obtained by multiplying the input image and the artificial object when the input image is input.
The image generation system includes a plurality of trained models in which a plurality of different numerical values are set as a coefficient λ1 indicating the degree to which the consistency of the image is lost when the input image is converted to the output image in the CycleGAN. It may have a recorded recording unit.

上記画像生成システムにおいて、
前記出力部は、前記入力画像が入力されると、前記係数λ1が異なる複数の学習済みモデルの各々から出力される各々の前記出力画像を各々を比較可能な態様で出力するように構成してもよい。
In the above image generation system
When the input image is input, the output unit is configured to output each of the output images output from each of the plurality of trained models having different coefficients λ1 in a comparable manner. May be good.

本発明の一側面によれば、
自然物の入力画像を与えると、人工物の出力画像を生成するデザイン支援学習モデルの生成方法であって、
前記学習モデルは、前記入力画像を入力すると、前記入力画像と人工物とが掛け合わされた出力画像を出力するCycleGAN(Cycle-Consistent Generative Adversarial Networks)が用いられる、デザイン支援学習モデルの生成方法が提供される。
According to one aspect of the invention
It is a method of generating a design support learning model that generates an output image of an artificial object when an input image of a natural object is given.
The learning model is provided by a method for generating a design support learning model, which uses Cycle-Consistent Generative Adversarial Networks (Cycle GAN) that outputs an output image obtained by multiplying the input image and an artificial object when the input image is input. Will be done.

上記デザイン支援学習モデルの生成方法において、
前記CycleGANにおいて、前記入力画像から前記出力画像へ変換する際に画像の一貫性が損失される程度を示す係数λ1が、前記出力画像から前記入力画像へ変換する際に画像の一貫性が損失される程度を示す係数λ2よりも小さく設定されていてもよい。
In the above design support learning model generation method,
In the CycleGAN, the coefficient λ1 indicating the degree to which the consistency of the image is lost when the input image is converted to the output image is lost when the output image is converted to the input image. It may be set smaller than the coefficient λ2 indicating the degree of the image.

本発明の一側面によれば、
コンピュータ可読命令を実行するチップと、前記チップで処理される前記コンピュータ可読命令を記録したメモリを備えた画像提供装置の製造方法であって、
請求項1に記載のデザイン支援学習モデルの生成方法により得られた前記学習モデルを前記メモリに書き込む、画像提供装置の製造方法が提供される。
According to one aspect of the invention
A method of manufacturing an image providing device including a chip that executes a computer-readable instruction and a memory that records the computer-readable instruction processed by the chip.
A method for manufacturing an image providing device is provided, in which the learning model obtained by the method for generating the design support learning model according to claim 1 is written in the memory.

本発明によれば、奇抜なデザインを着想しうる画像生成システム、該画像生成システムに用いられるデザイン支援学習モデルの生成方法、およびこのデザイン支援学習モデルが搭載された画像提供装置の製造方法が提供される。 According to the present invention, there is provided an image generation system capable of conceiving an unusual design, a method of generating a design support learning model used in the image generation system, and a method of manufacturing an image providing device equipped with the design support learning model. Will be done.

本発明の実施形態に係る画像生成システムのブロック図である。It is a block diagram of the image generation system which concerns on embodiment of this invention. CycleGANのモデルを示す図である。It is a figure which shows the model of CycleGAN. CycleGANにおける第一生成器と第二生成器の写像を説明する図である。It is a figure explaining the mapping of the 1st generator and the 2nd generator in CycleGAN. 一貫性損失を説明する図である。It is a figure explaining the consistency loss. 画像生成システムの入力画像IMG_INと出力画像IMG_OUTを示す図である。It is a figure which shows the input image IMG_IN and the output image IMG_OUT of an image generation system. ユーザ評価の結果を示す図である。It is a figure which shows the result of the user evaluation. 図7(a)〜(g)は、係数λ1を変化させたときの、一貫性損失の変化を説明する図である。7 (a) to 7 (g) are diagrams for explaining the change in the consistency loss when the coefficient λ1 is changed. ディスプレイの表示の一例を示す図である。It is a figure which shows an example of the display of a display.

以下、本発明を好適な実施形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施形態は、発明を限定するものではなく例示であって、実施形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。 Hereinafter, the present invention will be described with reference to the drawings based on the preferred embodiments. The same or equivalent components, members, and processes shown in the drawings shall be designated by the same reference numerals, and redundant description will be omitted as appropriate. Further, the embodiment is not limited to the invention, but is an example, and all the features and combinations thereof described in the embodiment are not necessarily essential to the invention.

<画像生成システム>
本発明の実施形態に係る画像生成システム1は、自然物の入力画像を与えると人工物の出力画像を生成するシステムである。本システム1は、プロダクトデザイナーなど人工物のデザインを検討しているユーザが、自然物をモチーフとした人工物のデザインを考える時に用いられる。本システム1は、自然物の入力画像を与えると、自然物をモチーフとした人工物のデザインの出力画像を生成する。より詳しくは、本システム1は、自然物の入力画像を与えると、入力画像と得たい人工物とが掛け合わされた画像を生成する。
<Image generation system>
The image generation system 1 according to the embodiment of the present invention is a system that generates an output image of an artificial object when an input image of a natural object is given. This system 1 is used when a user who is considering the design of an artificial object such as a product designer thinks about the design of an artificial object with a natural object as a motif. When the input image of a natural object is given, the system 1 generates an output image of an artificial object design with the natural object as a motif. More specifically, when the input image of a natural object is given, the system 1 generates an image in which the input image and the artificial object to be obtained are multiplied.

図1は、実施形態に係る画像生成システム1のブロック図である。画像生成システム1は、入力部2と、記録部3と、出力部4を備えている。
入力部2には、ユーザの端末5から、自然物の入力画像IMG_INが入力される。入力部2は、ユーザの端末5に直接接続されていてもよいし、ネットワークを介して接続されていてもよい。ユーザの端末5が画像生成システム1に直接接続されている場合には、画像生成システム1は単一のパーソナルコンピューターなどで実現できる。この場合、ユーザの端末5とはキーボードやマウスなどの入力機器である。ユーザの端末5が画像生成システム1にネットワークを介して接続されている場合、画像生成システム1はネットワーク上で稼働するサーバで実現される。この場合、ユーザの端末5とは、パーソナルコンピューターやタブレット端末、携帯電話などの情報処理機器である。入力部2は、取得した入力画像を出力部4へ送信する。
FIG. 1 is a block diagram of the image generation system 1 according to the embodiment. The image generation system 1 includes an input unit 2, a recording unit 3, and an output unit 4.
The input image IMG_IN of a natural object is input to the input unit 2 from the user's terminal 5. The input unit 2 may be directly connected to the user's terminal 5 or may be connected via a network. When the user's terminal 5 is directly connected to the image generation system 1, the image generation system 1 can be realized by a single personal computer or the like. In this case, the user's terminal 5 is an input device such as a keyboard or a mouse. When the user's terminal 5 is connected to the image generation system 1 via a network, the image generation system 1 is realized by a server operating on the network. In this case, the user's terminal 5 is an information processing device such as a personal computer, a tablet terminal, or a mobile phone. The input unit 2 transmits the acquired input image to the output unit 4.

記録部3には、自然物の入力画像を入力すると入力画像IMG_INと人工物とが掛け合わされた出力画像IMG_OUTを出力するように学習された学習モデルが記録されている。学習モデルとしては、GAN(Generative Adversarial Networks)と呼ばれるアルゴリズムを用いることができる。CycleGAN(Cycle-Consistent GAN)や、DCGAN(Deep Convolutional Generative GAN)を用いることができ、特にCycleGANを用いることが好ましい。この学習モデルの詳細は追って説明する。 The recording unit 3 records a learning model learned to output an output image IMG_OUT obtained by multiplying an input image IMG_IN and an artificial object when an input image of a natural object is input. As a learning model, an algorithm called GAN (Generative Adversarial Networks) can be used. Cycle-Consistent GAN (Cycle-Consistent GAN) and DCGAN (Deep Convolutional Generative GAN) can be used, and it is particularly preferable to use Cycle-GAN. The details of this learning model will be explained later.

出力部4(画像生成装置)は、入力部2に入力された入力画像IMG_INと記録部3に記録された学習モデルに基づき、入力画像IMG_INと人工物とが掛け合わされた出力画像IMG_OUTを出力する。出力部4は、ハードウェア的には、プロセッサ11やメモリ12などを有するコンピュータであり、ソフトウェアプログラムを実行することにより、さまざまな演算処理が実行可能である。出力部4はユーザの端末5に直接接続されていてもよいし、ネットワークを介して接続されていてもよい。
画像生成システム1が起動されると、出力部4のプロセッサ11は、記録部3に記録された学習済みモデルを読み出してメモリ12上に展開する。また、入力部2から入力画像IMG_INが入力されると、プロセッサ11は学習済みモデルに入力画像IMG_INを入力し出力画像IMG_OUTを生成する。出力部4は生成した出力画像IMG_OUTをユーザの端末5に出力する。
The output unit 4 (image generator) outputs an output image IMG_OUT obtained by multiplying the input image IMG_IN and an artificial object based on the input image IMG_IN input to the input unit 2 and the learning model recorded in the recording unit 3. .. The output unit 4 is a computer having a processor 11, a memory 12, and the like in terms of hardware, and various arithmetic processes can be executed by executing a software program. The output unit 4 may be directly connected to the user's terminal 5 or may be connected via a network.
When the image generation system 1 is started, the processor 11 of the output unit 4 reads out the learned model recorded in the recording unit 3 and expands it on the memory 12. Further, when the input image IMG_IN is input from the input unit 2, the processor 11 inputs the input image IMG_IN to the trained model and generates the output image IMG_OUT. The output unit 4 outputs the generated output image IMG_OUT to the user's terminal 5.

<学習モデルの生成方法>
次に、記録部3に記録される学習済みモデルであるCycleGANの学習方法について説明する。図2は、CycleGANの学習モデルを示す図である。CycleGANは、2個の生成器(Generator)21,22と、2個の識別器(Discliminator)23,24を備える。
<How to generate a learning model>
Next, a learning method of CycleGAN, which is a learned model recorded in the recording unit 3, will be described. FIG. 2 is a diagram showing a learning model of CycleGAN. The CycleGAN includes two Generators 21 and 22, and two Discliminators 23 and 24.

自然物の画像の集合X、その要素をxと表記し、人工物の画像の集合Y、その要素をyと表記する。第一生成器21は、自然物の画像(猫の目の画像)xを、人工物のフェイク画像(ヘッドランプの画像)y’に変換する。 The set X of images of natural objects and its elements are expressed as x, and the set Y of images of artificial objects and its elements are expressed as y. The first generator 21 converts an image of a natural object (an image of a cat's eye) x into a fake image of an artificial object (an image of a headlamp) y'.

反対に、第二生成器22は、人工物の画像(ヘッドランプの画像)yを自然物のフェイク画像(目の画像)xに変換する。 On the contrary, the second generator 22 converts an artificial object image (headlamp image) y into a natural object fake image (eye image) x.

図3は、CycleGAN20における第一生成器21と第二生成器22の写像を説明する図である。第一生成器21による変換を写像Gと表記する。
y’=G(x)
同様に、第一生成器21による変換を写像Fと表記する。
x’=F(y)
FIG. 3 is a diagram illustrating mapping of the first generator 21 and the second generator 22 in the CycleGAN 20. The conversion by the first generator 21 is referred to as a map G.
y'= G (x)
Similarly, the conversion by the first generator 21 is referred to as a map F.
x'= F (y)

図2に戻る。第一識別器23は、第一生成器21が生成するフェイク画像y’=G(x)を、人工物Yに属するか否か(つまり本物のヘッドランプの画像であるか否か)を判定する。第二識別器24は、第二生成器22が生成するフェイク画像x’=F(y)を、自然物Xに属するか(つまり本物の目の画像であるか否か)を判定する。 Return to FIG. The first classifier 23 determines whether or not the fake image y'= G (x) generated by the first generator 21 belongs to the artificial object Y (that is, whether or not it is an image of a real headlamp). do. The second classifier 24 determines whether the fake image x'= F (y) generated by the second generator 22 belongs to the natural object X (that is, whether it is a real eye image).

CycleGAN20の機械学習には、訓練データとして、自然物の本物の複数の画像xと、人工物の本物の複数の画像yが使用される。複数の画像xのセットは、例えば実際の動物の目の画像のセットであり、複数の画像yのセットは、例えば実際のヘッドランプの画像のセットである。なお、CycleGANは教師無し学習であり、ドメインの異なる本物画像x,yのペア付け(データのラベリング)は不要である。 In the machine learning of CycleGAN20, a plurality of real images x of natural objects and a plurality of real images y of artificial objects are used as training data. A set of a plurality of images x is, for example, a set of images of an actual animal eye, and a set of a plurality of images y is, for example, a set of images of an actual headlamp. Note that CycleGAN is unsupervised learning and does not require pairing (data labeling) of real images x and y with different domains.

CycleGAN20における機械学習では、第一生成器21は、第一識別器23をだませるほどに本物に近いフェイク画像を生成するようにパラメータが最適化される。同様に、第二生成器22は、第二識別器24をだませるほどに本物に近いフェイク画像を生成するようにパラメータが最適化される。なお、機械学習は、出力部4において実行してもよいが、それとは別のコンピュータにおいて実行してもよい。 In machine learning in CycleGAN 20, the parameters of the first generator 21 are optimized to generate a fake image that is close enough to deceive the first classifier 23. Similarly, the parameters of the second generator 22 are optimized to generate a fake image that is close enough to deceive the second classifier 24. The machine learning may be executed in the output unit 4, but may be executed in another computer.

反対に第一識別器23は、第一生成器21が生成したフェイク画像y’を、本物画像yと区別できるようにパラメータが最適化される。同様に第二識別器24は、第二生成器22が生成したフェイク画像x’を、本物画像xと区別できるようにパラメータが最適化される。 On the contrary, the parameters of the first classifier 23 are optimized so that the fake image y'generated by the first generator 21 can be distinguished from the real image y. Similarly, the parameters of the second classifier 24 are optimized so that the fake image x'generated by the second generator 22 can be distinguished from the real image x.

さらに、第一生成器21が、ある画像xを変換して得られるフェイク画像y’=G(x)を、第二生成器22によって逆変換した画像x^=F(y’)は、元の画像xに戻ることが拘束条件となっている。同様に第二生成器22が、ある画像yを変換して得られるフェイク画像x’=F(y)を、第一生成器21によって逆変換した画像y^=G(x’)は、元の画像データyに戻ることが拘束条件となっている。これらを一貫性(cycle consistency)条件という。なお、x^,y^は、図2のスイッチを、図示とは逆の状態に接続したときに得られる画像である。 Further, the fake image y'= G (x) obtained by the first generator 21 transforming a certain image x is inversely transformed by the second generator 22, and the image x ^ = F (y') is the original. It is a constraint condition to return to the image x of. Similarly, the image y ^ = G (x') obtained by inversely transforming the fake image x'= F (y) obtained by the second generator 22 by converting a certain image y by the first generator 21 is the original. It is a constraint condition to return to the image data y of. These are called cycle consistency conditions. Note that x ^ and y ^ are images obtained when the switch of FIG. 2 is connected in a state opposite to that shown in the drawing.

第一生成器21と第一識別器23は敵対的な関係にあり、第二生成器22と第二識別器24も敵対的な関係にあり、それらが競い合うことにより、CycleGAN20の学習が進められる。 The first generator 21 and the first classifier 23 are in a hostile relationship, and the second generator 22 and the second classifier 24 are also in a hostile relationship. By competing with each other, learning of the CycleGAN 20 is promoted. ..

CycleGANの機械学習の工程において使用される損失関数LGANは、式(1)で表されるように、第一項、第二項、第三項に展開できる。

Figure 2021168078
The loss function L GAN used in the machine learning process of Cycle GAN can be expanded into the first term, the second term, and the third term as represented by the equation (1).
Figure 2021168078

X:自然物の変数x(すなわち画像)の集合 x∈X
Y:人工物の変数y(すなわち画像)の集合 y∈Y
G: 第一生成器21によるxからyへの写像
F: 第二生成器22によるyからxへの写像
: 第一識別器23による判定結果
: 第二識別器24による判定結果
X: Set of variables x (that is, images) of natural objects x ∈ X
Y: A set of variables y (that is, images) of an artificial object y ∈ Y
G: mapping F to y from x According to a first generator 21: mapping D Y to x from y by the second generator 22: first determination by the discriminator 23 Results D X: a determination result by the second classifiers 24

この損失関数は、Dは第一項を最大に、Gは第一項を最小にするように最適化される。また、Dは第二項を最大に、Fは第二項を最小にするように最適化される。またGおよびFは、第三項を最小化するように最適化される。 This loss function, D Y to maximize paragraph, G is optimized to minimize the paragraph. Further, D X to maximize paragraph, F is being optimized to minimize the second term. G and F are also optimized to minimize the third term.

第一項および第二項は、敵対的損失(Adversarial Loss)と称され、以下の式(2)で表される。

Figure 2021168078
The first and second terms are referred to as Adversarial Loss and are expressed by the following equation (2).
Figure 2021168078

(y):本物画像yに対する第一識別器23の判定結果
(G(x)):第一生成器21が生成したフェイク画像G(x)に対する第一識別器23の判定結果
(x):本物画像xに対する第二識別器24の判定結果
(F(y)):第二生成器22が生成したフェイク画像F(y)に対する第二識別器24の判定結果
E[]は、ミニバッチ平均を表す。
DY (y): Judgment result of the first classifier 23 for the real image y DY (G (x)): Judgment result of the first classifier 23 for the fake image G (x) generated by the first generator 21 D X (x): real for the image x of the second discriminator 24 determination result D X (F (y)): the determination result of the second classifier 24 to the second fake image F of generator 22 has generated (y) E [] represents the mini-batch average.

式(1)の右辺第三項は、一貫性損失(Consistency Loss)であり、上述の一貫性要件を満たすために導入される。この損失項は具体的には、式(3)で表され、第一係数λ1で重み付けされた自然物の一貫性損失の項と、第一係数λ1と異なる第二係数λ2で重み付けされた人工物の一貫性損失の項と、を含む。

Figure 2021168078
The third term on the right-hand side of equation (1) is Consistency Loss, which is introduced to meet the above-mentioned consistency requirements. Specifically, this loss term is expressed by the equation (3), and the term of the consistency loss of the natural object weighted by the first coefficient λ1 and the artificial object weighted by the second coefficient λ2 different from the first coefficient λ1. Including the term Consistency Loss.
Figure 2021168078

図4は、一貫性損失を説明する図である。自然物Xの損失項は、元の画像xを生成器Gにより写像し、生成器Fで逆写像したときの画像x^=F(G(x))が、元の画像xが近づくように、二点xおよびx^の距離(ノルム)を用いて定義されている。人工物Yの損失項に関しても同様であり、元の画像yを生成器Fにより写像し、生成器Gで逆写像したときの画像y^=G(F(y))が、元の画像yが近づくように、二点yおよびy^の距離(ノルム)を用いて定義されている。 FIG. 4 is a diagram illustrating a consistency loss. The loss term of the natural object X is such that the image x ^ = F (G (x)) when the original image x is mapped by the generator G and inversely mapped by the generator F is closer to the original image x. It is defined using the distance (norm) of two points x and x ^. The same applies to the loss term of the artificial object Y, and the image y ^ = G (F (y)) when the original image y is mapped by the generator F and inversely mapped by the generator G is the original image y. Is defined using the distance (norm) of the two points y and y ^ so that

一貫性損失の項は、過度な変換を抑制し、画像が崩れることを防ぐための損失である。λ1は入力画像から出力画像へ変換する際に画像の一貫性が損失される程度を示す係数である。λ2は出力画像から入力画像へ変換する際に画像の一貫性が損失される程度を示す係数である。従来のCycleGANにおける一貫性損失の項は、2つのドメインについて同じ重み付けで定義され、したがってλ1=λ2であるのが一般的であった。これに対して、本実施形態では、λ1<λ2としている。これにより、入力画像から劇的に変化した出力画像が生成されることを狙っている。 The term of consistency loss is a loss for suppressing excessive conversion and preventing image corruption. λ1 is a coefficient indicating the degree to which image consistency is lost when converting an input image to an output image. λ2 is a coefficient indicating the degree to which image consistency is lost when converting an output image to an input image. The term of consistency loss in conventional CycleGAN is defined with the same weighting for two domains, so it was common for λ1 = λ2. On the other hand, in this embodiment, λ1 <λ2. This aims to generate a dramatically changed output image from the input image.

以上のような概念に基づき、機械学習用の情報処理装置を用いてCycleGANに基づく学習モデルが生成される。具体的には、この機械学習はソフトウェアプログラムとして記述され、CPUやメモリを備えた情報処理装置で実行される。この機械学習は、生成器および識別機を備えたモデルを用意し、自然物および人工物の訓練データを用意し、適切なλ1およびλ2を設定し、実行される。機械学習の具体的な処理は、公知技術と同様であり、指定したエポック数、バッチサイズで実行される。詳しくは、訓練データの組み合わせについて、損失関数を計算しながら、第一生成器21、第二生成器22、第一識別器23、第二識別器24のパラメータを最適化していく。 Based on the above concept, a learning model based on CycleGAN is generated using an information processing device for machine learning. Specifically, this machine learning is described as a software program and executed by an information processing device equipped with a CPU and a memory. This machine learning is performed by preparing a model equipped with a generator and a discriminator, preparing training data of natural objects and man-made objects, setting appropriate λ1 and λ2, and executing them. The specific processing of machine learning is the same as that of the known technique, and is executed with a specified number of epochs and batch size. Specifically, for the combination of training data, the parameters of the first generator 21, the second generator 22, the first classifier 23, and the second classifier 24 are optimized while calculating the loss function.

以上がCycleGANの機械学習の説明である。機械学習によって得られた学習モデルのうち、主として第一生成器21の部分が、図1の出力部4に実装される。
上述したデザイン支援学習モデルの生成方法により得られた学習モデルをメモリに書き込み、該メモリと、該メモリに記録されたコンピュータ可読命令を実行するチップとを搭載することにより、画像提供装置を製造することができる。
The above is the explanation of machine learning of CycleGAN. Of the learning models obtained by machine learning, the part of the first generator 21 is mainly mounted on the output unit 4 of FIG.
An image providing device is manufactured by writing a learning model obtained by the above-described design support learning model generation method to a memory and mounting the memory and a chip that executes a computer-readable instruction recorded in the memory. be able to.

本実施形態によれば、
自然物の入力画像を入力する入力部2と、
自然物の入力画像を入力すると入力画像と人工物とが掛け合わされた画像を出力するように学習された学習モデルが記録された記録部3と、
入力部2に入力された入力画像と記録部3に記録された学習モデルに基づき、入力画像と人工物とが掛け合わされた画像を出力する出力部4を備えた、画像生成システム1が提供される。
According to this embodiment
Input unit 2 for inputting an input image of a natural object and
A recording unit 3 in which a learning model trained to output an image obtained by multiplying an input image and an artificial object when an input image of a natural object is input is recorded.
An image generation system 1 is provided, which includes an output unit 4 that outputs an image obtained by multiplying an input image and an artificial object based on an input image input to the input unit 2 and a learning model recorded in the recording unit 3. NS.

本実施形態の画像生成システム1は、人工的に学習された学習モデルに基づき入力画像と人工物とが掛け合わされた画像が出力されるため、プロダクトデザイナー自身の過去の着想に縛られない奇抜なデザインを着想しうる。 Since the image generation system 1 of the present embodiment outputs an image obtained by multiplying an input image and an artificial object based on an artificially learned learning model, it is a novel idea that is not bound by the product designer's own past ideas. You can come up with a design.

また本実施形態によれば、
自然物の入力画像を与えると、人工物の出力画像を生成するデザイン支援学習モデルの生成方法であって、
学習モデルは、入力画像を入力すると、入力画像と人工物とが掛け合わされた出力画像を出力するCycleGAN(Cycle-Consistent Generative Adversarial Networks)が用いられる、デザイン支援学習モデルの生成方法が提供される。
Further, according to the present embodiment,
It is a method of generating a design support learning model that generates an output image of an artificial object when an input image of a natural object is given.
As the learning model, a method for generating a design support learning model is provided, which uses Cycle-Consistent Generative Adversarial Networks (Cycle GAN) that outputs an output image obtained by multiplying an input image and an artificial object when an input image is input.

本実施形態のデザイン支援学習モデルの生成方法によれば、CycleGANが用いられているので、人工的に学習された学習モデルに基づき入力画像と人工物とが掛け合わされた画像が出力されるため、この学習モデルを用いればプロダクトデザイナー自身の過去の着想に縛られない奇抜なデザインを着想しうる画像提供装置を実現しうる。 According to the design support learning model generation method of the present embodiment, since CycleGAN is used, an image obtained by multiplying the input image and the artificial object is output based on the artificially learned learning model. By using this learning model, it is possible to realize an image providing device that can conceive a strange design that is not bound by the product designer's own past ideas.

なお、CycleGANでは、犬と猫の変換のように、一見、うまくいくように思える2つのドメインでも、それらとは全く異なる画像が生成されることも知られている。したがって、自然物と人工物の組み合わせとして、動物の目とヘッドランプの組み合わせを選択した場合に、動物の目とヘッドランプの中間的な画像がうまく生成できることは、当業者が予測可能なことと認定してはならない。 It is also known that CycleGAN produces images that are completely different from those of two domains that seem to work, such as the conversion of dogs and cats. Therefore, it is recognized by those skilled in the art that when the combination of animal eyes and headlamps is selected as the combination of natural objects and artificial objects, an intermediate image between the animal eyes and the headlamps can be successfully generated. should not be done.

さらに本実施形態によれば、
コンピュータ可読命令を実行するチップと、チップで処理されるコンピュータ可読命令を記録したメモリを備えた画像提供装置(出力部4)の製造方法であって、
上述したデザイン支援学習モデルの生成方法により得られた学習モデルをメモリに書き込む、画像提供装置の製造方法が提供される。
Further, according to the present embodiment,
A method for manufacturing an image providing device (output unit 4) having a chip for executing a computer-readable instruction and a memory for recording a computer-readable instruction processed by the chip.
Provided is a method for manufacturing an image providing device, which writes a learning model obtained by the above-described design support learning model generation method in a memory.

本実施形態の画像提供装置の製造方法によれば、入力画像と人工物とが掛け合わされた画像が出力されるCycleGANが用いられた学習モデルがメモリに書き込まれているため、プロダクトデザイナー自身の過去の着想に縛られない奇抜なデザインを着想しうる画像提供装置を実現しうる。 According to the manufacturing method of the image providing device of the present embodiment, the learning model using CycleGAN, which outputs an image obtained by multiplying the input image and the artificial object, is written in the memory, so that the product designer's own past It is possible to realize an image providing device that can conceive a strange design that is not bound by the idea of.

なお、上述した実施形態においては、λ1をλ2より小さい値に設定することについて説明した。以降では、これについて詳細に説明する。
学習モデルに設定されるλ1およびλ2の値のセットをパラメータセットと称する。このパラメータセットが異なる場合に、どのように出力画像が異なるのかを検証したのが図5である。図5は、互いに異なるパラメータセットが設定された6個の学習済みモデルの各々に、同じ入力画像を与えたときにどのような出力画像が得られるかを比較して示している。ここでは、λ2を10に固定し、λ1を30.0、10.0、0.2、0.1、0.05、0.01に設定した学習済みモデルを生成した。学習モデルを学習する際には、入力画像として猫の目の画像、出力画像として車両用前照灯の画像を与えた。
In the above-described embodiment, setting λ1 to a value smaller than λ2 has been described. This will be described in detail below.
The set of values of λ1 and λ2 set in the training model is called a parameter set. FIG. 5 is a verification of how the output images are different when the parameter sets are different. FIG. 5 compares and shows what kind of output image is obtained when the same input image is given to each of the six trained models in which different parameter sets are set. Here, a trained model was generated in which λ2 was fixed at 10 and λ1 was set at 30.0, 10.0, 0.2, 0.1, 0.05, and 0.01. When learning the learning model, an image of a cat's eyes was given as an input image, and an image of a vehicle headlight was given as an output image.

なお実際に行った学習の条件を以下に示す。
・訓練データ
自然物の画像(猫の目) 14456枚
人工物の画像(ヘッドランプ) 14606枚
・テストデータ
自然物の画像(猫の目) 1000枚
人工物の画像(ヘッドランプ) 1000枚
・エポック数 100
・バッチサイズ 8
・学習率 0.0002
The conditions of the actual learning are shown below.
・ Training data Natural object image (cat's eye) 14456 sheets Artificial object image (head lamp) 14606 sheets ・ Test data Natural object image (cat's eye) 1000 sheets Artificial object image (head lamp) 1000 sheets ・ Epoch number 100
・ Batch size 8
・ Learning rate 0.0002

生成した学習済みモデルを用いた画像生成システム1に、図5の左端に示した3つの入力画像IMG_INを入力すると、図5に示したように出力画像IMG_OUTが生成される。図5に示したように、λ1が大きいほど猫の目に近く、λ1が小さいほど車両用前照灯に近い出力画像が得られることが分かる。これにより、λ1がλ2より小さくなるほど入力した猫の目の画像から劇的に変化した車両用前照灯の画像が得られることが分かる。 When the three input images IMG_IN shown at the left end of FIG. 5 are input to the image generation system 1 using the generated trained model, the output image IMG_OUT is generated as shown in FIG. As shown in FIG. 5, it can be seen that the larger the λ1 is, the closer the output image is to the cat's eyes, and the smaller the λ1 is, the closer the output image is to the vehicle headlight. As a result, it can be seen that as λ1 becomes smaller than λ2, a dramatically changed image of the vehicle headlight can be obtained from the input image of the cat's eyes.

ちなみに、このようにパラメータセットを異ならせた複数の学習済みモデルのうち、どの学習済みモデルが出力した画像がプロダクトデザイナーにとって有益かを調査した。上記のようにして生成した6個の学習済みモデルそれぞれに、45枚の入力画像を入力し、45セットの画像群を生成した。各画像群は、図5に示すように、入力画像と6個の出力画像を含む。被験者には、45セットの画像群ごとに、デザインの参考とする上で最も好ましい1枚の画像を選択させた。図5では3枚の入力画像が入力されたので縦に3枚、横に6枚の合計18枚の画像群であるが、被験者に見せた画像は縦に45枚、横に6枚の合計270枚の画像群である。 By the way, among the multiple trained models with different parameter sets in this way, we investigated which trained model output the image is useful for the product designer. Forty-five input images were input to each of the six trained models generated as described above, and 45 sets of image groups were generated. Each image group includes an input image and six output images, as shown in FIG. The subjects were asked to select one of the most preferable images for design reference for each of the 45 sets of image groups. In FIG. 5, since three input images were input, a total of 18 image groups of 3 images vertically and 6 images horizontally were input, but the images shown to the subject were a total of 45 images vertically and 6 images horizontally. It is a group of 270 images.

図6は、被験者の評価結果を示す図である。一つの入力画像に対して、入力画像がよいか、あるいは6個の学習済みモデルが生成した6個の出力画像のいずれの画像が良いか、選択してもらった。15人の被験者から45セットの画像群のそれぞれについて票を投じてもらい、図6の結果を得た。得票数の合計は15×45=675である。 FIG. 6 is a diagram showing the evaluation results of the subjects. For one input image, we were asked to select which of the six output images generated by the six trained models was better, or the input image was better. Fifteen subjects voted for each of the 45 sets of images, and the results shown in FIG. 6 were obtained. The total number of votes obtained is 15 x 45 = 675.

この結果から、λ1=0.2(λ2=10)が最も高い得票を得ており、デザインのモチーフとして有効であることが分かる。これは、元の猫の目の画像よりも高い得票であり、λ1=λ2=10の場合よりも高い得票である。つまり、λ1<λ2に設定して、よりヘッドランプに近づけた画像を生成することにより、デザインに有益な情報をデザイナーに提供できることが示唆される。 From this result, it can be seen that λ1 = 0.2 (λ2 = 10) has the highest number of votes and is effective as a design motif. This is a higher vote than the original cat's eye image, and a higher vote than the case of λ1 = λ2 = 10. That is, it is suggested that by setting λ1 <λ2 to generate an image closer to the headlamp, information useful for the design can be provided to the designer.

なお、元の猫の目の画像も、依然として高い得票を得ている。これは、デザイナーによっては、AIに対する拒絶反応があることを暗に示していると考えられる。したがって、AIに対して拒絶反応や偏見のない、コンピュータによるデザイン支援を積極的に受け容れることができるデザイナーのみを対象とした場合、λ1<λ2であることの優位性はより顕著なものとなりうる。 The original cat's eye image still has a high vote. This may imply that some designers have a rejection of AI. Therefore, the advantage of λ1 <λ2 can be more pronounced when targeting only designers who are not rejected or prejudiced against AI and who can actively accept computer-based design support. ..

このようにλ1<λ2とすることで、λ1=λ2の場合よりも、よりデザインに有用な画像が提供される。これは当業者が容易になしえたものと認定してはならない。図7(a)〜(g)は、λ1を変化させたときの、一貫性損失の変化を説明する図である。各図において、左画像は、第一生成器21への入力x、中央画像は、第一生成器21の出力y’=G(x)、右画像は、中央画像を第二生成器22により逆変換した画像x^=F(y’)である。λ1=λ2=10の場合では、左画像xと右画像x^はよく一致しており、一貫性損失が小さいことが分かる。これに対して、λ2を10.0と一定にしたときのλ1≦0.2では、左画像xと右画像x^の乖離が大きくなっており、つまり一貫性損失が大きくなっている。一般的なCycleGANの機械学習は、一貫性損失が極力減少するように目的関数が設計されるが、本実施形態では、一貫性損失の残留を許容することによって、よりデザイナーの参考になる画像を提供するものであり、これらは根本的に立場が違うと言える。 By setting λ1 <λ2 in this way, an image more useful for design is provided as compared with the case of λ1 = λ2. This should not be found to be easily accomplished by those skilled in the art. 7 (a) to 7 (g) are diagrams for explaining the change in consistency loss when λ1 is changed. In each figure, the left image is the input x to the first generator 21, the center image is the output y'= G (x) of the first generator 21, and the right image is the center image by the second generator 22. The inversely transformed image x ^ = F (y'). In the case of λ1 = λ2 = 10, the left image x and the right image x ^ are in good agreement, and it can be seen that the consistency loss is small. On the other hand, when λ1 ≦ 0.2 when λ2 is kept constant at 10.0, the divergence between the left image x and the right image x ^ is large, that is, the consistency loss is large. In general CycleGAN machine learning, the objective function is designed so that the consistency loss is reduced as much as possible, but in this embodiment, by allowing the consistency loss to remain, an image that is more helpful to the designer can be obtained. It is provided, and it can be said that these are fundamentally different positions.

なお上述した画像生成システム1において、記録部3が相異なるパラメータセットで学習された複数の学習済みモデルが記録されており、出力部4は、入力画像が入力されると、λ1が異なる複数の学習済みモデルの各々から出力される各々の出力画像を各々を比較可能な態様で出力するように構成されていてもよい。 In the image generation system 1 described above, a plurality of trained models trained by the recording unit 3 with different parameter sets are recorded, and the output unit 4 has a plurality of trained models having different λ1 when the input image is input. Each output image output from each of the trained models may be configured to be output in a comparable manner.

例えば出力部4は、図5に示したように入力画像と、異なるλ1で学習された複数の学習済みモデルから生成された出力画像を横一列に並べることで、各々を比較可能な態様で出力してもよい。あるいは、図8に示したように、モチーフ画像として入力画像を上段に表示し、その下段に異なるλ1で学習された複数の学習済みモデルから生成された出力画像を横一列に並べることで、各々を比較可能な態様で出力してもよい。このように、複数の出力画像を同時に表示することにより、プロダクトデザイナーは、より多くのヒントやアイデア、着想を得ることが可能となる。 For example, as shown in FIG. 5, the output unit 4 outputs the input image and the output images generated from a plurality of trained models trained in different λ1s in a horizontal row so that each can be compared. You may. Alternatively, as shown in FIG. 8, the input image is displayed in the upper row as a motif image, and the output images generated from a plurality of trained models trained in different λ1s are arranged in a horizontal row in the lower row. May be output in a comparable manner. By displaying a plurality of output images at the same time in this way, the product designer can obtain more hints, ideas, and ideas.

以上、本発明について、実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素や各処理プロセスの組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。以下、こうした変形例について説明する。 The present invention has been described above based on the embodiments. This embodiment is an example, and it will be understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. .. Hereinafter, such a modification will be described.

実施形態では、猫の目の画像をモチーフとしたが、それに限定されず、人間や犬といったほ乳類、鳥類、爬虫類、両生類や魚類、バッタやコオロギ、トンボなど昆虫の目をモチーフとしてもよい。また、植物の花や種子、葉などをモチーフとしてもよい。モチーフとは、デザインしたい人工物の創作の動機となる中心的な題材である。入力画像として、動物の目の正面図に限らず、動物の体全体の正面図や側面図を入力画像としてもよい。 In the embodiment, the image of the cat's eyes is used as a motif, but the motif is not limited to that, and the eyes of insects such as mammals such as humans and dogs, birds, reptiles, amphibians and fish, grasshoppers, crickets, and dragonflies may be used as motifs. In addition, flowers, seeds, leaves, etc. of plants may be used as motifs. Motif is a central subject that motivates the creation of an artificial object that you want to design. As the input image, not only the front view of the animal's eyes but also the front view and the side view of the whole body of the animal may be used as the input image.

なお本実施形態において、設計のモチーフは、動物の目である。自動車を正面から見たときに、自動車はしばしば顔に例えられ、左右のヘッドランプは動物の目に対応付けられる。したがって動物の目は、ヘッドランプのモチーフとして特に有用である。 In this embodiment, the design motif is the animal eye. When looking at a car from the front, the car is often likened to a face, with the left and right headlamps associated with the animal's eyes. Therefore, the animal eye is particularly useful as a headlamp motif.

人工物とは、デザインしたい工業製品である。特に、人の目を引く意匠面が製品の性質上重要となる工業製品である。人工物は、好ましくは、車両や車両用前照灯である。出力画像として、人工物の意匠面の正面図の画像が出力されることが好ましい。出力画像は、特に車両の左側に搭載される車両用前照灯または車両の右側に搭載される車両用前照灯の全体の正面図の画像であることが好ましい。 An artificial object is an industrial product that you want to design. In particular, it is an industrial product in which an eye-catching design aspect is important due to the nature of the product. The man-made object is preferably a vehicle or a vehicle headlight. As an output image, it is preferable to output an image of a front view of the design surface of the artificial object. The output image is particularly preferably an image of the entire front view of the vehicle headlight mounted on the left side of the vehicle or the vehicle headlight mounted on the right side of the vehicle.

学習モデルの学習時には、異なる種類の自然物が混在する入力画像を入力してもよい。また、ある種類の自然物を入力画像として生成した学習済みモデルを用いた画像生成システム1に、別の種類の自然物の画像を入力画像として与えてもよい。 When learning the learning model, an input image in which different types of natural objects are mixed may be input. Further, an image of another kind of natural object may be given as an input image to the image generation system 1 using the trained model in which a certain kind of natural object is generated as an input image.

上述した実施形態では、N=6個のパラメータのセットについて、学習済みモデルを生成したが、パラメータセットの個数や、具体的な係数の値については限定されない。 In the above-described embodiment, a trained model is generated for a set of N = 6 parameters, but the number of parameter sets and a specific coefficient value are not limited.

画像生成システム1の記録部3には、複数のパラメータセットに対応する複数の学習済みモデルを実装してもよいし、特定のモチーフ、特定の製品の組み合わせにおいて、最適な組み合わせのλ1とλ2を用いて学習された1個の学習済みモデルが実装されていてもよい。 A plurality of trained models corresponding to a plurality of parameter sets may be mounted on the recording unit 3 of the image generation system 1, or λ1 and λ2 of the optimum combination in a specific motif and a specific product combination may be mounted. One trained model trained using may be implemented.

また実施形態では、ヘッドランプのデザインを例としたがその限りでなく、テイルランプやサイドマーカーなど、その他の部位の車両用灯具のデザインにも適用できる。さらには本発明は車両用灯具に限定されず、さまざまな工業デザインやプロダクトデザインの支援にも適用可能である。 Further, in the embodiment, the design of the headlamp is taken as an example, but the present invention is not limited to this, and the design can be applied to the design of vehicle lighting equipment of other parts such as tail lamps and side markers. Furthermore, the present invention is not limited to vehicle lamps, and can be applied to support various industrial designs and product designs.

実施形態にもとづき、具体的な語句を用いて本発明を説明したが、実施形態は、本発明の原理、応用の一側面を示しているにすぎず、実施形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。 Although the present invention has been described using specific terms and phrases based on the embodiments, the embodiments show only one aspect of the principles and applications of the present invention, and the embodiments are defined in the claims. Many modifications and arrangement changes are permitted without departing from the ideas of the present invention.

1 画像生成システム
2 入力部
3 記録部
4 出力部(画像生成装置)
5 ユーザの端末
11 プロセッサ
12 メモリ
20 CycleGAN
21 第一生成器
22 第二生成器
23 第一識別器
24 第二識別器
G 第一生成器
F 第二生成器
IMG_IN 入力画像
IMG_OUT 出力画像
GAN 損失関数
λ1 第一係数
λ2 第二係数
1 Image generation system 2 Input unit 3 Recording unit 4 Output unit (image generator)
5 User's terminal 11 Processor 12 Memory 20 CycleGAN
21 1st generator 22 2nd generator 23 1st classifier 24 2nd classifier G 1st generator F 2nd generator IMG_IN Input image IMG_OUT Output image L GAN loss function λ1 1st coefficient λ2 2nd coefficient

Claims (6)

自然物の入力画像を入力する入力部と、
自然物の入力画像を入力すると前記入力画像と人工物とが掛け合わされた画像を出力するように学習された学習モデルが記録された記録部と、
前記入力部に入力された前記入力画像と前記記録部に記録された前記学習モデルに基づき、前記入力画像と前記人工物とが掛け合わされた出力画像を出力する出力部を備えた、画像生成システム。
Input section for inputting images of natural objects and
A recording unit in which a learning model learned to output an image obtained by multiplying the input image and an artificial object when an input image of a natural object is input is recorded.
An image generation system including an output unit that outputs an output image obtained by multiplying the input image and the artificial object based on the input image input to the input unit and the learning model recorded in the recording unit. ..
前記学習モデルは、前記入力画像を入力すると、前記入力画像と前記人工物とが掛け合わされた前記出力画像を出力するCycleGAN(Cycle-Consistent Generative Adversarial Networks)であって、
前記画像生成システムは、前記CycleGANにおいて前記入力画像から前記出力画像へ変換する際に画像の一貫性が損失される程度を示す係数λ1として、複数の異なる数値が設定された複数の学習済みモデルが記録された記録部を有している、請求項1に記載の画像生成システム。
The learning model is a Cycle-Consistent Generative Adversarial Networks (Cycle-Consistent Generative Adversarial Networks) that outputs an output image obtained by multiplying the input image and the artificial object when the input image is input.
The image generation system includes a plurality of trained models in which a plurality of different numerical values are set as a coefficient λ1 indicating the degree to which the consistency of the image is lost when the input image is converted to the output image in the CycleGAN. The image generation system according to claim 1, further comprising a recorded recording unit.
前記出力部は、前記入力画像が入力されると、前記係数λ1が異なる複数の学習済みモデルの各々から出力される各々の前記出力画像を各々を比較可能な態様で出力する、請求項1に記載の画像生成システム。 According to claim 1, when the input image is input, the output unit outputs each of the output images output from each of the plurality of trained models having different coefficients λ1 in a comparable manner. The image generation system described. 自然物の入力画像を与えると、人工物の出力画像を生成するデザイン支援学習モデルの生成方法であって、
前記学習モデルは、前記入力画像を入力すると、前記入力画像と人工物とが掛け合わされた出力画像を出力するCycleGAN(Cycle-Consistent Generative Adversarial Networks)が用いられる、デザイン支援学習モデルの生成方法。
It is a method of generating a design support learning model that generates an output image of an artificial object when an input image of a natural object is given.
The learning model is a method of generating a design support learning model using Cycle-Consistent Generative Adversarial Networks (Cycle-Consistent Generative Adversarial Networks), which outputs an output image obtained by multiplying the input image and an artificial object when the input image is input.
前記CycleGANにおいて、前記入力画像から前記出力画像へ変換する際に画像の一貫性が損失される程度を示す係数λ1が、前記出力画像から前記入力画像へ変換する際に画像の一貫性が損失される程度を示す係数λ2よりも小さく設定されている、請求項4に記載のデザイン支援学習モデルの生成方法。 In the CycleGAN, the coefficient λ1 indicating the degree to which the consistency of the image is lost when the input image is converted to the output image is lost when the output image is converted to the input image. The method for generating a design support learning model according to claim 4, which is set to be smaller than the coefficient λ2 indicating the degree of the image. コンピュータ可読命令を実行するチップと、前記チップで処理される前記コンピュータ可読命令を記録したメモリを備えた画像処理装置の製造方法であって、
請求項4に記載のデザイン支援学習モデルの生成方法により得られた前記学習モデルを前記メモリに書き込む、画像処理装置の製造方法。
A method of manufacturing an image processing apparatus including a chip that executes a computer-readable instruction and a memory that records the computer-readable instruction processed by the chip.
A method for manufacturing an image processing apparatus, wherein the learning model obtained by the method for generating a design support learning model according to claim 4 is written in the memory.
JP2020071769A 2020-04-13 2020-04-13 Image generation system and machine learning method for image generation system Pending JP2021168078A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020071769A JP2021168078A (en) 2020-04-13 2020-04-13 Image generation system and machine learning method for image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020071769A JP2021168078A (en) 2020-04-13 2020-04-13 Image generation system and machine learning method for image generation system

Publications (1)

Publication Number Publication Date
JP2021168078A true JP2021168078A (en) 2021-10-21

Family

ID=78080076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020071769A Pending JP2021168078A (en) 2020-04-13 2020-04-13 Image generation system and machine learning method for image generation system

Country Status (1)

Country Link
JP (1) JP2021168078A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024007602A1 (en) * 2022-07-06 2024-01-11 中国华能集团清洁能源技术研究院有限公司 Method and apparatus for training cyclegan model for generating defect images of photovoltaic panel

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024007602A1 (en) * 2022-07-06 2024-01-11 中国华能集团清洁能源技术研究院有限公司 Method and apparatus for training cyclegan model for generating defect images of photovoltaic panel

Similar Documents

Publication Publication Date Title
Neti et al. Maximally fault tolerant neural networks
US20230090801A1 (en) System and method for generating photorealistic synthetic images based on semantic information
Janssen Complexity and ecosystem management: the theory and practice of multi-agent systems
Lin et al. Attribute-Aware Convolutional Neural Networks for Facial Beauty Prediction.
CN107679183A (en) Grader training data acquisition methods and device, server and storage medium
CN108229531A (en) Characteristics of objects processing method, device, storage medium and electronic equipment
CN110097609A (en) A kind of fining embroidery texture moving method based on sample territory
JP2021168078A (en) Image generation system and machine learning method for image generation system
Mukherjee et al. Communicating semantic part information in drawings.
CN113780365A (en) Sample generation method and device
TWI829944B (en) Avatar facial expression generating system and method of avatar facial expression generation
US20210150369A1 (en) Weight demodulation for a generative neural network
KR101444816B1 (en) Image Processing Apparatus and Method for changing facial impression
JP2021120801A (en) Design support device, and machine learning method of design support device
Pavlou et al. Simulating the effects of cortical feedback in the superior colliculus with topographic maps
Martins et al. Evolving stencils for typefaces: combining machine learning, user’s preferences and novelty
JP7148078B2 (en) Attribute estimation device, attribute estimation method, attribute estimator learning device, and program
Nešić et al. Modeling candlestick patterns with interpolative Boolean algebra for investment decision making
Buss Background to the study
JP2024029832A (en) Determination program, determination apparatus, and determination method
JP7308466B2 (en) Information processing system, information processing method, and program
Starrett Policies and priorities for Ireland's landscapes
Salinas-Medina et al. A live emotions predictor system using convolutional neural networks
KR102549575B1 (en) An apparatus and method of generating voice of natural enemy
KR20200075256A (en) Intelligent character authoring device and method based on user&#39;s lifelog big data

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200511