JP2020095407A - 画像生成装置、画像生成方法、及びプログラム - Google Patents

画像生成装置、画像生成方法、及びプログラム Download PDF

Info

Publication number
JP2020095407A
JP2020095407A JP2018231866A JP2018231866A JP2020095407A JP 2020095407 A JP2020095407 A JP 2020095407A JP 2018231866 A JP2018231866 A JP 2018231866A JP 2018231866 A JP2018231866 A JP 2018231866A JP 2020095407 A JP2020095407 A JP 2020095407A
Authority
JP
Japan
Prior art keywords
image
feature
category
learning
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018231866A
Other languages
English (en)
Other versions
JP7099292B2 (ja
Inventor
香織 熊谷
Kaori Kumagai
香織 熊谷
之人 渡邉
Yukito Watanabe
之人 渡邉
島村 潤
Jun Shimamura
潤 島村
淳 嵯峨田
Atsushi Sagata
淳 嵯峨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018231866A priority Critical patent/JP7099292B2/ja
Priority to US17/312,314 priority patent/US20220027670A1/en
Priority to PCT/JP2019/046324 priority patent/WO2020121811A1/ja
Publication of JP2020095407A publication Critical patent/JP2020095407A/ja
Application granted granted Critical
Publication of JP7099292B2 publication Critical patent/JP7099292B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Abstract

【課題】所望のカテゴリの画像であって、かつ、所望の固有特徴を有する画像を生成することができるようにする。【解決手段】生成部3は、第一の画像と同じカテゴリに属する第二の画像から得られた当該カテゴリに属する画像に共通する特徴であるカテゴリ特徴と、第一の画像と第二の画像とで異なる固有の特徴である固有特徴と、を関連付けることで第一の画像を生成する。【選択図】図1

Description

本発明は、画像生成装置、画像生成方法、及びプログラムに係り、特に、所望の固有特徴を有する画像を生成する画像生成装置、画像生成方法、及びプログラムに関する。
近年、デジタルカメラやスマートフォンの普及により画像の取得が容易となり、これらの画像に写った物体を機械で識別することで、工場での人の目視点検の代替や、小売り店舗での商品の欠品検知自動化等、様々な場面で人の作業効率化に役立ちはじめている。
このように、画像に写った物体を機械で識別する、画像の識別技術への要望は高まっている。
画像の識別技術に関して、近年、非特許文献1で開示されているような、CNN(Convolutional Neural Network)に基づく手法が多く開示されている。
CNNは、特徴を検出するフィルタをスライドさせながら入力画像に対して掛け合わせて作成した特徴マップを出力する畳み込み処理と、抽出した特徴を局所領域ごとにまとめ上げるプーリング処理を繰り返し行っている。
CNNが高い識別性能を発揮するためには、大量の学習データをCNNに入力し、これらを識別するようにフィルタを学習する必要がある。つまり、高精度な識別能力を持ったCNNを獲得するためには、大量の学習データが必要である。
大量の学習データをすべて人手で用意するためには、多くのコストがかかる。具体的には、画像をカテゴリに分類する画像分類タスクのための学習データを用意するためには、カテゴリ毎に多くの画像が必要であり、例えば非特許文献2で開示されている画像分類タスク用公開データセットImageNetを題材とした画像認識のコンペティションILSVRC2012で使用されたデータセットでは、1カテゴリ当たり約1,200枚、合計1,000カテゴリ分の画像が用意されている。さらに、カテゴリが詳細(例えば、椅子カテゴリを、ソファ、ベンチ、ダイニングチェアカテゴリに分ける場合)になるほど、学習データの準備がより大変になる。
上記の問題に対して、少量の画像データを準備し、これらを変換することで、画像データを拡張する方法がある。
例えば、非特許文献1では、予め定めた画像の幾何学的な変換方法(クロップや回転など)を用いて画像データを拡張し、拡張した画像データセットで画像分類器の学習を行うことで画像分類精度の向上を確認している。
また、特許文献1や非特許文献3では、カテゴリに共通して存在する特徴(属性)に基づいて画像を変換する方法が提案されている。画像とその画像が持つ属性のペアデータを複数用意し、これを学習データとして画像生成装置を学習する。
この画像生成装置に、画像と変換したい属性とのペアを入力すると、変換したい属性を特徴として持つ画像が出力される。
特開2018−55384号公報
C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A. Rabinovich. "Going deeper with convolutions." In proc. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp. 1-9. O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, A. Berg, L. Fei-Fei. " ImageNet Large Scale Visual Recognition Challenge." In proc. International Journal of Computer Vision (IJCV), 2015, pp.211-252. G. Lample, N. Zeghidour, N. Usunier, A. Bordes, L. Denoyer, M. Ranzato, "Fader Networks: Manipulating Images by Sliding Attributes." In Proc. Of NIPS, 2017, pp.5963-5972.
しかし、非特許文献1で得られる画像データセットは、画像の幾何学的な変換で得られる画像に限られるため、幾何学的な変換で得られない画像は正しく分類できない可能性がある、という問題があった。
例えば、色や柄の異なる画像は得られないため、少量の画像データセットに無い色や柄の画像を正しく分類できない可能性がある。
また、非特許文献3では、属性に基づいて多様な変換が可能であるが、変換対象となる画像は、画像生成装置の学習に用いたカテゴリの物体に限られる。そのため、画像生成装置の学習に用いた学習データに無い未知のカテゴリの画像を変換する場合には、変換する場所が定まらず、望んだ第一の画像を得られない、という問題があった。
例えば、図8に示すように、カテゴリ「キャップ」が学習データに無い未知のカテゴリである場合、キャップのカテゴリに属する画像のどの位置を変換すべきか分からない。
本発明は上記の点に鑑みてなされたものであり、所望のカテゴリの画像であって、かつ、所望の固有特徴を有する画像を生成することができる画像生成装置、画像生成方法、及びプログラムを提供することを目的とする。
本発明に係る画像生成装置は、所望の固有特徴を有する第一の画像を生成する画像生成装置であって、前記第一の画像と同じカテゴリに属する第二の画像から得られた前記カテゴリに属する画像に共通する特徴であるカテゴリ特徴と、前記第一の画像と前記第二の画像とで異なる固有の特徴である固有特徴と、を関連付けることで前記第一の画像を生成する生成部を有し、前記固有特徴は、前記第二の画像を分割した分割領域の各々について、前記所望の固有特徴が関連付けられたものである。
また、本発明に係る画像生成方法は、所望の特徴を有する第一の画像を生成する画像生成方法であって、生成部が、前記第一の画像と同じカテゴリに属する第二の画像から得られた前記カテゴリに属する画像に共通する特徴であるカテゴリ特徴と、前記第一の画像と前記第二の画像とで異なる固有の特徴である固有特徴と、を関連付けることで前記第一の画像を生成し、前記固有特徴は、前記第二の画像を分割した分割領域の各々について、前記所望の固有特徴が関連付けられたものである。
本発明に係る画像生成装置及び画像生成方法によれば、生成部が、第一の画像と同じカテゴリに属する第二の画像から得られた当該カテゴリに属する画像に共通する特徴であるカテゴリ特徴と、第一の画像と第二の画像とで異なる固有の特徴である固有特徴と、を関連付けることで第一の画像を生成する。固有特徴は、第二の画像を分割した分割領域の各々について、所望の固有特徴が関連付けられたものである。
このように、第一の画像と同じカテゴリに属する第二の画像から得られた当該カテゴリに属する画像に共通する特徴であるカテゴリ特徴と、第一の画像と第二の画像とで異なる固有の特徴である固有特徴と、を関連付けることで第一の画像を生成することにより、所望のカテゴリの画像であって、かつ、所望の固有特徴を有する画像を生成することができる。
また、本発明に係る画像生成装置の記カテゴリ特徴は、前記第二の画像から前記固有特徴を除いて抽出されるように、かつ、所定の識別器に前記固有特徴を有すると識別されないように学習されていることができる。
また、本発明に係る画像生成装置の前記生成部は、前記所望の固有特徴と関連付けられた分割領域の位置情報を用いたマスクを、前記カテゴリ特徴にかけたものを変換し、前記変換により得られたデータを用いて前記第一の画像を生成することができる。
また、本発明に係る画像生成装置の前記生成部は、更に、前記所望の固有特徴から、前記所望の固有特徴が関連付けられた分割領域の位置情報を抑制したデータと、前記カテゴリ特徴とを含むデータを変換し、前記変換により得られたデータを用いて前記第一の画像を生成することができる。
また、本発明に係る画像生成装置の前記生成部は、前記第二の画像を入力として前記カテゴリ特徴を抽出するエンコーダと、前記カテゴリ特徴と前記所望の固有特徴とを入力として前記第一の画像を生成するデコーダと、を更に含み、前記エンコーダ及びデコーダは、学習用の固有特徴と、前記学習用の固有特徴を有する学習用画像とのペアに基づいて、前記学習用画像を前記エンコーダに入力し、前記学習用の固有特徴を前記デコーダに入力したときに前記デコーダが、前記学習用画像を再構成し、かつ、前記カテゴリ特徴を入力とする所定の識別器により前記学習用の固有特徴を有すると識別されないように予め学習されていることができる。
また、本発明に係る画像生成装置の前記所定の識別器は、前記カテゴリ特徴を入力としたときに正しく前記固有特徴を有すると識別するように予め学習されていることができる。
本発明に係るプログラムは、コンピュータを、上記の画像生成装置の各部として機能させるためのプログラムである。
本発明の画像生成装置、画像生成方法、及びプログラムによれば、所望のカテゴリの画像であって、かつ、所望の固有特徴を有する画像を生成することができる。
本発明の実施の形態に係る画像生成装置の構成の一例を示すブロック図である。 本発明の実施の形態に係る画像生成装置のエンコーダ、デコーダ、及び識別器の関係を示すイメージ図である。 本発明の実施の形態に係る画像生成装置のデコーダの構成の一例を示すイメージ図である。 本発明の実施の形態に係る画像生成装置より生成される第一の画像の例である。 本発明の実施の形態に係る画像生成装置の学習処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る画像生成装置のデコード処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る画像生成装置の画像生成処理ルーチンを示すフローチャートである。 本発明の課題を示すイメージ図である。
以下、本発明の実施の形態について図面を用いて説明する。
<本発明の実施の形態に係る画像生成装置の構成>
図1を参照して、本発明の実施の形態に係る画像生成装置100の構成について説明する。図1は、本発明の実施の形態に係る画像生成装置の構成を示すブロック図である。
画像生成装置100は、CPUと、RAMと、後述する画像生成処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
図1に示すように、本実施形態に係る画像生成装置100は、入力部1と、記憶部2と、生成部3と、パラメータ更新部4と、出力部5とを備えて構成される。以下、画像生成装置100の処理を、学習処理と、画像生成処理とに分けて各機能を説明する。
<<学習処理>>
入力部1は、学習用の固有特徴と、当該学習用の固有特徴を含む学習用画像との1以上のペアの入力を受け付ける。
本実施形態において、カテゴリ特徴とは、所望のカテゴリに属する対象に共通する特徴である。例えば、帽子のカテゴリ「ハット」であれば、つばの部分が「丸い」といった特徴である。
また、固有特徴(属性)とは、所望のカテゴリに属する複数の対象に必ずしも共通しない場合がある特徴である。例えば、帽子のカテゴリ「ハット」であれば、「青い」という特徴である。「青い」という特徴は、カテゴリ「ハット」に属する複数の対象に共通する場合もあれば、共通しない場合もある。
また、属性位置データとは、第一の画像(出力画像)における各位置の固有特徴(属性)を示すデータである。
具体的には、学習用画像xは、サイズが横幅×縦幅×チャネル数のテンソルであり、ここでは、学習用画像xの横幅をW、縦幅をH、チャネル数をDとする。また、学習用画像xは、横幅と縦幅が等しいテンソル(すなわち、W=H)であれば何でも良い。
また、テンソルの最左上手前の座標を(0,0,0)とし、最左上手前から右にw、下にh進み、奥にd枚目のチャネルに相当する座標を(w,h,d)と表記するものとする。
また、説明の簡単のため、各テンソルについて、横幅の次元を次元1、縦幅の次元を次元2、チャネル数の次元を次元3と記載する。すなわち、学習用画像xの次元1のサイズはW、次元2のサイズはH、次元3のサイズはDとなる。
横幅と縦幅が等しくない画像(W≠H)から横幅と縦幅が等しい(W=H)画像を作成する方法は、テンソルのサイズを変更する処理であれば何でも良く、例えばリサイズ処理、画像の一部を切り出すクロップ処理、画像の周囲に数値0や画像の端の画素を繰り返し追加するパディング処理、又は画像の端の画素を上下または左右で逆にして追加するミラーリング処理等を行う。
固有特徴とは、同じカテゴリの画像で異なる固有の特徴であり、学習用画像を分割した分割領域の各々について、固有特徴が関連付けられたものである。
本実施形態では、入力部1は、各位置についての、固有特徴としての属性を表す属性位置データyの入力を受け付ける。属性位置データyは、学習用画像xの変換後における各位置の属性を示すデータである。
属性とは、当該画像生成装置100で変換する予め定義した画像の固有特徴を表す言葉であれば何でも良く、例えば赤、青等の色、木製、ガラス等の素材、ドットやストライプ等の柄等の特徴を示す言葉である。
また、各属性が特定可能な識別子が付与されているものとする。例えば、予め定義した属性がA種類のとき、0以上A未満の自然数を付与する。また、学習用画像xの変換後の各位置における各属性の有無を、属性位置データyが示すものとする。
属性位置データyは、属性がA種類のとき、サイズがM×N×AのテンソルYであり、学習用画像xのサイズがW×H×Dとしたとき1≦M≦W、1≦N≦Hとなり、M=Nであるものとする。
学習用画像xについて、横幅をM個に、縦幅をN個に分割しグリッドに分け、学習用画像xの変換後の画像について、最左上から右にm番目、下にn番目のグリッドが持つ属性を特定する数値がaであるとき、テンソルYの(m,n,a)の位置に1を配置する。
一方、当該グリッドが数値aで特定される属性を持っていない場合、テンソルYの(m,n,a)の位置に0を配置する。
そして、入力部1は、受け付けた学習用画像xと属性位置データyとの1以上のペアを、生成部3に渡す。
記憶部2には、学習用画像xを入力として学習用画像xと同一のカテゴリに属する画像に共通する特徴であるカテゴリ特徴としての潜在表現E(x)を抽出するエンコーダ、潜在表現E(x)と属性位置データyとを入力として各位置に属性を有し、かつ、当該カテゴリに属する画像を生成するデコーダ、及び潜在表現E(x)を入力として各属性が含まれるか否かを識別する識別器が格納されている。
具体的には、エンコーダ、デコータ、及び識別器は、それぞれニューラルネットワークであり、記憶部2には、各ニューラルネットワークのパラメータが格納されている。
生成部3は、出力画像

と同じカテゴリに属する学習用画像から得られた潜在表現E(x)と、属性位置データyと、を関連付けることで出力画像

を生成する。
具体的には、生成部3は、まず、記憶部2からエンコーダ、デコーダ及び識別器の各パラメータを取得する。
次に、生成部3は、学習用画像xをエンコーダに入力して潜在表現E(x)を抽出し、抽出した潜在表現E(x)と属性位置データyをデコーダに入力して、出力画像

を生成する。
図2に、エンコーダ、デコーダ、及び識別器の関係を示す。
エンコーダは、学習用画像xを入力とし、学習用画像xから属性情報を除いたカテゴリ特徴を抽出するニューラルネットワークであれば何でも良い。以下、本実施形態では、カテゴリ特徴の例として、潜在表現E(x)を用いて説明する。
例えば、非特許文献3のエンコーダを採用することができる。非特許文献3のエンコーダは、入力される画像のサイズが256×256×3であるとき、出力される潜在表現E(x)のサイズが2×2×512となるニューラルネットワークを用いている。
デコーダは、潜在表現E(x)と属性位置データyを入力とし、学習用画像xとサイズが同じ画像であり、かつ、属性位置データyによって与えられた各位置の属性情報を持つ画像を生成するニューラルネットワークである。
図3にデコーダの構成を示す。図3に示すように、デコーダは、ローカル用潜在表現前処理、ローカル用属性位置データ前処理、ローカル用入力データ統合処理、ローカルデコーダの処理、グローバル用属性位置データ前処理、グローバル用入力データ統合処理、グローバルデコーダの処理、及び画像デコーダの処理の各処理を行う。
ローカルデコーダ、グローバルデコーダ、及び画像デコーダはそれぞれニューラルネットワークであり、デコーダでは、ローカルデコーダの出力であるテンソルと、グローバルデコーダの出力であるテンソルと、属性位置データyとを次元3の方向に重ね合わせたテンソルを画像デコーダに入力し、出力画像

を生成する。以下、デコーダの各処理について説明する。
ローカルデコーダは、属性のある位置のみをフィルタリングするためのデコーダである。ローカルデコーダは、属性位置データyをマスクとして使用し、属性のある位置のみに着目するように潜在表現E(x)を変換する。
具体的には、ローカルデコーダは、入力となるテンソルのサイズの次元1及び次元2が属性位置データyの次元1及び次元2のサイズと同じであり、次元3のサイズが潜在表現E(x)の次元3のサイズと同じであり、入力のテンソルと同じサイズのテンソルを出力するニューラルネットワークであれば何でも良い。
ローカルデコーダに属性位置データyの次元1及び次元2のサイズと同じテンソルを入力するために、ローカル用潜在表現前処理により潜在表現E(x)のサイズを変形し、ローカル用属性位置データ前処理により属性位置データyのサイズを変形し、各前処理の出力をローカル用入力データ統合処理により統合する。
具体的には、ローカル用潜在表現前処理は、潜在表現E(x)のサイズの次元1及び次元2が属性位置データyの次元1及び次元2のサイズと同じテンソルになるよう変形する処理である。
例えば、ローカル用潜在表現前処理は、潜在表現E(x)のサイズが2×2×512であり、属性位置データyのサイズが16×16×11であるとき、ローカル用潜在表現前処理の出力を16×16×512のテンソルとするために、潜在表現E(x)のテンソルを1×1×512に変形した後に、次元1及び次元2の方向に16×16個複製し、16×16×512のテンソルを出力する処理を行う。
また、ローカル用属性位置データ前処理は、属性位置データyの次元3のサイズが、潜在表現E(x)の次元3のサイズと同じテンソルになるよう変形する処理である。
例えば、ローカル用属性位置データ前処理は、潜在表現E(x)のサイズが2×2×512であり、属性位置データyのサイズが16×16×11であるとき、ローカル用属性位置データ前処理の出力を16×16×512のテンソルとするために、属性位置データyのテンソルを次元3の方向に足し合わせ、16×16×1のテンソルにした後、これを次元3の方向に512個複製し、16×16×512のテンソルを出力する処理を行う。
ローカル用入力データ統合処理は、ローカル用潜在表現前処理の出力であるテンソルと、ローカル用属性位置データ前処理の出力であるテンソルを入力とし、これら入力された2つのテンソルと同じサイズのテンソルを出力する処理である。
例えば、ローカル用入力データ統合処理は、入力された2つのテンソルを掛け合わせることにより、次元1及び次元2が属性位置データyの次元1及び次元2のサイズと同じであり、かつ、次元3のサイズが潜在表現E(x)の次元3のサイズと同じであるテンソルを出力する処理を行う。
グローバルデコーダは画像全体としての構造を保持するためのデコーダである。グローバルデコーダは、属性位置データyの位置情報を、事前に属性位置データyの次元1及び次元2のサイズを縮小することで、抑制し、潜在表現E(x)と合わせて変換することで画像全体の構造を保つように変換する。
具体的には、グローバルデコーダは、次元1及び次元2が潜在表現E(x)の次元1及び次元2のサイズと同じテンソルを入力とし、次元1及び次元2のサイズが属性位置データyの次元1及び次元2と同じサイズのテンソルを出力するニューラルネットワークであれば何でも良い。
グローバルデコーダに次元1及び次元2が潜在表現E(x)の次元1及び次元2のサイズと同じテンソルを入力するために、グローバル用属性位置データ前処理により属性位置データyのサイズを変形し出力したテンソルと、潜在表現E(x)とをグローバル用入力データ統合処理により統合する処理である。
具体的には、グローバル用属性位置データ前処理は、属性位置データyの次元1及び次元2のサイズが、潜在表現E(x)の次元1及び次元2のサイズと同じテンソルになるよう変形する処理である。
例えば、グローバル用属性位置データ前処理は、潜在表現E(x)のサイズが2×2×512であり、属性位置データyのサイズが16×16×11であるとき、畳み込みニューラルネットワークにより畳み込み処理を行い、2×2×512のテンソルを出力する処理を行う。
グローバル用入力データ統合処理は、潜在表現E(x)と、グローバル用属性位置データ前処理の出力であるテンソルを入力とし、次元1及び次元2のサイズが、これら入力された2つのテンソルの次元1及び次元2と同じサイズのテンソルを出力する処理である。
例えば、グローバル用入力データ統合処理は、入力された2つのテンソルを次元3の方向に重ね合わせることで、次元1及び次元2が潜在表現の次元1及び次元2のサイズと同じであるテンソルを出力する処理を行う。
画像デコーダは、ローカルデコーダの出力であるテンソルと、グローバルデコーダの出力であるテンソルと、属性位置データyとを次元3の方向に重ね合わせたテンソルを入力として、出力画像

を生成する処理を行う。
識別器は、画像から得られた潜在表現E(x)を入力としたときに当該画像が有する属性を識別するニューラルネットワークである。
例えば、識別器は、潜在表現E(x)のサイズが2×2×512であり、属性数が10であるとき、入力として2×2×512のテンソルを受け付け、出力が長さ10のベクトルとなるニューラルネットワークを用いることができる。
そして、生成部3は、学習用画像x、生成した出力画像

、及び属性位置データyを、パラメータ更新部4に渡す。
パラメータ更新部4は、属性位置データyと、属性位置データyが表す各位置の属性を有する学習用画像xとのペアに基づいて、学習用画像xをエンコーダに入力し、属性位置データyをデコーダに入力したときにデコーダが、学習用画像xを再構成し、かつ、潜在表現E(x)を入力とする識別器により属性位置データyが表す属性を有すると識別されないようにエンコーダ及びデコーダの各パラメータを更新し、潜在表現E(x)を入力としたときに属性位置データyが表す属性を有すると正しく識別するように識別器のパラメータを更新する。
具体的には、パラメータ更新部4は、まず、記憶部2からエンコーダ、デコーダ、及び識別器の各パラメータを取得する。
次に、パラメータ更新部4は、下記の二種類の制約を満たすようニューラルネットワークであるエンコーダ、デコーダ、及び識別器の各パラメータを更新する。
一つ目の制約は、生成した出力画像

が、学習用画像xを再構成するようにエンコーダ及びデコーダの各パラメータを更新することである。
この一つ目の制約を満たすよう設定された学習方法であれば何でも良く、例えば非特許文献3では、学習用画像xと生成した出力画像

との二乗誤差を計算し、これを小さくするようにエンコーダ及びデコーダの各パラメータを更新する。
二つ目の制約は、学習用画像xが入力されたエンコーダが属性情報を除くように潜在表現E(x)を抽出し、かつ、識別器は潜在表現E(x)から属性位置データyが表す属性を有すると正しく識別するようにエンコーダ及び識別器の各パラメータを更新することである。
この二つ目の制約を満たすよう設定された学習方法であれば何でも良く、例えば、非特許文献3では、識別器が潜在表現E(x)から属性位置データyが表す属性を有すると正しく識別する確率を小さくするようエンコーダのパラメータを更新することに対し、識別器が潜在表現E(x)から属性位置データyが表す属性を有すると識別する確率が大きくなるように識別器のパラメータを更新する。
そして、パラメータ更新部4は、学習したエンコーダ、デコーダ、及び識別器の各パラメータを、記憶部2に格納する。
なお、学習処理では、入力された学習画像x及び属性位置データyの1以上のペアの各々について、1つのペア毎にエンコーダ、デコーダ、及び識別器の各パラメータを学習してもよいし、バッチ処理等により複数同時、又は一括して学習してもよい。
<<画像生成処理>>
次に、画像生成処理について説明する。画像生成装置100の画像生成処理では、固有特徴である属性位置データyを有する第一の画像

を生成する。
なお、簡単のため、本実施形態では、第二の画像xは、学習画像xと同様のテンソルであるものとする。
入力部1は、生成したい第一の画像

と同じカテゴリに属する第二の画像x、及び所望の固有特徴である属性位置データyの入力を受け付ける。
具体的には、第二の画像xは、サイズが横幅×縦幅×チャネル数のテンソルであり、ここでは、第二の画像xの横幅をW、縦幅をH、チャネル数をDとする。また、第二の画像xは、横幅と縦幅が等しいテンソル(すなわち、W=H)であれば何でも良い。
また、テンソルの最左上手前の座標を(0,0,0)とし、最左上手前から右にw、下にh進み、奥にd枚目のチャネルに相当する座標を(w,h,d)と表記するものとする。
また、説明の簡単のため、学習処理と同様に、各テンソルについて、横幅の次元を次元1、縦幅の次元を次元2、チャネル数の次元を次元3と記載する。すなわち、第二の画像xの次元1のサイズはW、次元2のサイズはH、次元3のサイズはDとなる。
横幅と縦幅が等しくない画像(W≠H)から横幅と縦幅が等しい(W=H)画像を作成する方法は、テンソルのサイズを変更する処理であれば何でも良く、例えばリサイズ処理、画像の一部を切り出すクロップ処理、画像の周囲に数値0や画像の端の画素を繰り返し追加するパディング処理、又は画像の端の画素を上下または左右で逆にして追加するミラーリング処理等を行う。
そして、入力部1は、受け付けた第二の画像xと属性位置データyとを、生成部3に渡す。
記憶部2には、学習処理により学習されたエンコーダ、デコーダ、及び識別器の各パラメータが格納されている。
生成部3は、第一の画像

と同じカテゴリに属する第二の画像xから得られた潜在表現E(x)と、属性位置データyと、を関連付けることで第一の画像

を生成する。
具体的には、生成部3は、まず、記憶部2から学習済みのエンコーダ、デコーダ及び識別器の各パラメータを取得する。
次に、生成部3は、第二の画像xをエンコーダに入力して潜在表現E(x)を抽出し、抽出した潜在表現E(x)と属性位置データyをデコーダに入力して、第一の画像

を生成する。
そして、生成部3は、生成した第一の画像

を出力部5に渡す。
出力部5は、第一の画像

を出力する。
図4に画像生成装置100により生成される第一の画像の例を示す。図4の例では、カテゴリ「帽子」に属する第二の画像xと、対象物全体の位置が属性「黒色」を有することを表す属性位置データyとから、帽子全体の位置が黒色となる第一の画像

を生成することが示されている。
これは、未知のカテゴリの第二の画像であっても、上記学習処理により学習済みのエンコーダにより属性情報を除いた当該カテゴリの潜在表現E(x)を抽出することができ、抽出した潜在表現E(x)に対して、所望の属性位置データyが表す属性を関連付けることができることによる。
様々な属性位置データyを本実施形態に係る画像生成装置100に入力することにより、第二の画像と同一のカテゴリであって、属性位置データyが表す属性を有する複数の第一の画像

を生成することができる。
このように生成された複数の第一の画像

は、例えば物体検出器の学習用の画像に用いることができる。
<本発明の実施の形態に係る画像生成装置の作用>
図5は、本発明の実施の形態に係る学習処理ルーチンを示すフローチャートである。
入力部1に、属性位置データyが表す各位置の属性を有する学習用画像x及び当該属性位置データyの1以上のペアが入力されると、画像生成装置100において、図5に示す学習処理ルーチンが実行される。
まず、ステップS100において、属性位置データyと、学習用画像xとの1以上のペアの入力を受け付ける。
ステップS110において、生成部3は、学習用画像xをエンコーダに入力して潜在表現E(x)を抽出する。
ステップS120において、上記ステップS110において抽出した潜在表現E(x)と属性位置データyをデコーダに入力して、出力画像

生成する。
ステップS130において、属性位置データyと、属性位置データyが表す各位置の属性を有する学習用画像xとのペアに基づいて、学習用画像xをエンコーダに入力し、属性位置データyをデコーダに入力したときにデコーダが、学習用画像xを再構成し、かつ、潜在表現E(x)を入力とする識別器により属性位置データyが表す属性を有すると識別されないようにエンコーダ及びデコーダの各パラメータを更新し、潜在表現E(x)を入力としたときに属性位置データyが表す属性を有すると正しく識別するように識別器のパラメータを更新する。
図6は、上記ステップS120におけるデコード処理ルーチンを示すフローチャートである。
ステップS121において、生成部3は、潜在表現E(x)のサイズの次元1及び次元2が属性位置データyの次元1及び次元2のサイズと同じテンソルになるよう変形するローカル用潜在表現前処理を行う。
ステップS122において、生成部3は、属性位置データyの次元3のサイズが、潜在表現E(x)の次元3のサイズと同じテンソルになるよう変形するローカル用属性位置データ前処理を行う。
ステップS123において、生成部3は、上記ステップS121により得られたテンソルと、上記ステップS122により得られたテンソルを入力とし、これら入力された2つのテンソルと同じサイズのテンソルを出力するローカル用入力データ統合処理を行う。
ステップS124において、生成部3は、上記ステップS124により得られたテンソルをローカルデコーダに入力し、属性位置データyをマスクとして使用し、属性のある位置のみに着目するように潜在表現E(x)を変換する。
ステップS125において、生成部3は、属性位置データyの次元1及び次元2のサイズが、カテゴリ特徴の次元1及び次元2のサイズと同じテンソルになるよう変形するグローバル用属性位置データ前処理を行う。
ステップS126において、生成部3は、潜在表現E(x)と、上記ステップS125により得られたテンソルを入力とし、次元1及び次元2のサイズが、これら入力された2つのテンソルの次元1及び次元2と同じサイズのテンソルを出力するグローバル用入力データ統合処理を行う。
ステップS127において、生成部3は、上記ステップS126により得られたテンソルをグローバルデコーダに入力し、属性位置データyの位置情報を抑制し、潜在表現E(x)と合わせて変換することで画像全体の構造を保つように変換する。
ステップS128において、生成部3は、上記ステップS124によりデコードされたテンソルと、上記ステップS127によりデコードされたテンソルと、属性位置データyとを次元3の方向に重ね合わせたテンソルとを画像デコーダに入力して、出力画像

を生成する
図7は、本発明の実施の形態に係る画像生成処理ルーチンを示すフローチャートである。なお、学習処理ルーチンと同様の処理については、同一の符号を付して詳細な説明は省略する。
入力部1に第二の画像x及び属性位置データyが入力されると、画像生成装置100において、図7に示す画像生成処理ルーチンが実行される。
まず、ステップS200において、生成したい第一の画像

と同じカテゴリに属する第二の画像x、及び属性位置データyの入力を受け付ける。
ステップS230において、上記ステップS120により得られた第一の画像

を出力する。なお、画像生成処理ではステップS128において、生成部3は、第一の画像

を生成する。
以上説明したように、本発明の実施形態に係る画像生成装置によれば、第一の画像と同じカテゴリに属する第二の画像から得られた当該カテゴリに属する画像に共通する特徴であるカテゴリ特徴と、第一の画像と第二の画像とで異なる固有の特徴である固有特徴と、を関連付けることで第一の画像を生成することにより、所望のカテゴリの画像であって、かつ、所望の固有特徴を有する画像を生成することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
本実施形態では、学習処理と画像生成処理とを同一の画像生成装置100により行うこととしたが、別の装置で行うようにしてもよい。この場合、学習処理により学習済みのエンコーダ、デコーダ、及び識別器が格納された記憶部2を画像生成処理に用いればよい。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
1 入力部
2 記憶部
3 生成部
4 パラメータ更新部
5 出力部
100 画像生成装置

Claims (8)

  1. 所望の固有特徴を有する第一の画像を生成する画像生成装置であって、
    前記第一の画像と同じカテゴリに属する第二の画像から得られた前記カテゴリに属する画像に共通する特徴であるカテゴリ特徴と、前記第一の画像と前記第二の画像とで異なる固有の特徴である固有特徴と、を関連付けることで前記第一の画像を生成する生成部
    を有し、
    前記固有特徴は、前記第二の画像を分割した分割領域の各々について、前記所望の固有特徴が関連付けられたものである
    画像生成装置。
  2. 前記カテゴリ特徴は、前記第二の画像から前記固有特徴を除いて抽出されるように、かつ、所定の識別器に前記固有特徴を有すると識別されないように学習されている
    請求項1記載の画像生成装置。
  3. 前記生成部は、
    前記所望の固有特徴と関連付けられた分割領域の位置情報を用いたマスクを、前記カテゴリ特徴にかけたものを変換し、前記変換により得られたデータを用いて前記第一の画像を生成する
    請求項1又は2記載の画像生成装置。
  4. 前記生成部は、
    更に、前記所望の固有特徴から、前記所望の固有特徴が関連付けられた分割領域の位置情報を抑制したデータと、前記カテゴリ特徴とを含むデータを変換し、前記変換により得られたデータを用いて前記第一の画像を生成する
    請求項3記載の画像生成装置。
  5. 前記生成部は、
    前記第二の画像を入力として前記カテゴリ特徴を抽出するエンコーダと、
    前記カテゴリ特徴と前記所望の固有特徴とを入力として前記第一の画像を生成するデコーダと、
    を更に含み、
    前記エンコーダ及びデコーダは、学習用の固有特徴と、前記学習用の固有特徴を有する学習用画像とのペアに基づいて、前記学習用画像を前記エンコーダに入力し、前記学習用の固有特徴を前記デコーダに入力したときに前記デコーダが、前記学習用画像を再構成し、かつ、前記カテゴリ特徴を入力とする所定の識別器により前記学習用の固有特徴を有すると識別されないように予め学習されている
    請求項1記載の画像生成装置。
  6. 前記所定の識別器は、前記カテゴリ特徴を入力としたときに正しく前記固有特徴を有すると識別するように予め学習されている
    請求項5記載の画像生成装置。
  7. 所望の特徴を有する第一の画像を生成する画像生成方法であって、
    生成部が、前記第一の画像と同じカテゴリに属する第二の画像から得られた前記カテゴリに属する画像に共通する特徴であるカテゴリ特徴と、前記第一の画像と前記第二の画像とで異なる固有の特徴である固有特徴と、を関連付けることで前記第一の画像を生成し、
    前記固有特徴は、前記第二の画像を分割した分割領域の各々について、前記所望の固有特徴が関連付けられたものである
    画像生成方法。
  8. コンピュータを、請求項1乃至6の何れか1項記載の画像生成装置の各部として機能させるためのプログラム。
JP2018231866A 2018-12-11 2018-12-11 画像生成装置、画像生成方法、及びプログラム Active JP7099292B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018231866A JP7099292B2 (ja) 2018-12-11 2018-12-11 画像生成装置、画像生成方法、及びプログラム
US17/312,314 US20220027670A1 (en) 2018-12-11 2019-11-27 Image generation device, image generation method, and program
PCT/JP2019/046324 WO2020121811A1 (ja) 2018-12-11 2019-11-27 画像生成装置、画像生成方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018231866A JP7099292B2 (ja) 2018-12-11 2018-12-11 画像生成装置、画像生成方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020095407A true JP2020095407A (ja) 2020-06-18
JP7099292B2 JP7099292B2 (ja) 2022-07-12

Family

ID=71076373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018231866A Active JP7099292B2 (ja) 2018-12-11 2018-12-11 画像生成装置、画像生成方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220027670A1 (ja)
JP (1) JP7099292B2 (ja)
WO (1) WO2020121811A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014141A1 (ja) * 2020-07-17 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、情報処理システム
JP2022114440A (ja) * 2021-01-26 2022-08-05 三星電子株式会社 映像復元方法及び装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055384A (ja) * 2016-09-28 2018-04-05 日本電信電話株式会社 信号調整装置、信号生成学習装置、方法、及びプログラム
WO2018203549A1 (ja) * 2017-05-02 2018-11-08 日本電信電話株式会社 信号変更装置、方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018055384A (ja) * 2016-09-28 2018-04-05 日本電信電話株式会社 信号調整装置、信号生成学習装置、方法、及びプログラム
WO2018203549A1 (ja) * 2017-05-02 2018-11-08 日本電信電話株式会社 信号変更装置、方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014141A1 (ja) * 2020-07-17 2022-01-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、撮像装置、および、情報処理システム
JP2022114440A (ja) * 2021-01-26 2022-08-05 三星電子株式会社 映像復元方法及び装置
JP7239116B2 (ja) 2021-01-26 2023-03-14 三星電子株式会社 映像復元方法及び装置

Also Published As

Publication number Publication date
WO2020121811A1 (ja) 2020-06-18
JP7099292B2 (ja) 2022-07-12
US20220027670A1 (en) 2022-01-27

Similar Documents

Publication Publication Date Title
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
CN110992238B (zh) 一种基于双通道网络的数字图像篡改盲检测方法
WO2020087607A1 (zh) 一种基于Bi-Skip-Net的图像去模糊方法
CN107808376B (zh) 一种基于深度学习的举手检测方法
CN103971112A (zh) 图像特征提取方法及装置
WO2020121811A1 (ja) 画像生成装置、画像生成方法、及びプログラム
CN103235947A (zh) 一种手写体数字识别方法及装置
CN105701493A (zh) 基于阶层图形的图像提取以及前景估测的方法和系统
JP2014164656A (ja) 画像処理方法およびプログラム
CN104036468A (zh) 基于预放大非负邻域嵌入的单帧图像超分辨重建方法
JP2016520897A (ja) 画像アウトラインを記述するシステム及び方法
CN113221987A (zh) 一种基于交叉注意力机制的小样本目标检测方法
CN111488911A (zh) 基于Mask R-CNN与GAN的图像实体抽取方法
CN111445426A (zh) 一种基于生成对抗网络模型的目标服装图像处理方法
CN110766697A (zh) 一种界面草图的图形界面控件图像识别的方法和装置
CN110851627B (zh) 一种用于描述全日面图像中太阳黑子群的方法
CN111273905A (zh) 基于界面草图的应用检索方法和装置
CN112802048B (zh) 具有不对称结构的图层生成对抗网络生成方法及装置
CN111191729B (zh) 一种基于多模态特征融合的三维对象融合特征表示方法
CN109493279B (zh) 一种大规模无人机图像并行拼接方法
Fang et al. Self-teaching strategy for learning to recognize novel objects in collaborative robots
CN113192003A (zh) 一种拼接图像质量评价方法
CN103077396B (zh) 一种彩色图像的向量空间特征点提取方法及装置
CN112633103A (zh) 图像处理方法、装置和电子设备
JP6918382B1 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R150 Certificate of patent or registration of utility model

Ref document number: 7099292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150