JPWO2018216207A1 - 画像処理装置、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
JPWO2018216207A1
JPWO2018216207A1 JP2017549838A JP2017549838A JPWO2018216207A1 JP WO2018216207 A1 JPWO2018216207 A1 JP WO2018216207A1 JP 2017549838 A JP2017549838 A JP 2017549838A JP 2017549838 A JP2017549838 A JP 2017549838A JP WO2018216207 A1 JPWO2018216207 A1 JP WO2018216207A1
Authority
JP
Japan
Prior art keywords
image
feature
residual
input
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017549838A
Other languages
English (en)
Other versions
JP6276901B1 (ja
Inventor
玖 徐
玖 徐
ビヨン シュテンガー
ビヨン シュテンガー
永男 蔡
永男 蔡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=61158449&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JPWO2018216207(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of JP6276901B1 publication Critical patent/JP6276901B1/ja
Publication of JPWO2018216207A1 publication Critical patent/JPWO2018216207A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Television Systems (AREA)

Abstract

一実施形態に係る画像処理装置はプロセッサを備える。プロセッサは、入力画像を取得するステップと、入力画像を畳み込み層により処理することで特徴残差を算出するステップと、入力画像に対して少なくとも一つの畳み込みを実行するステップと、畳み込まれた入力画像に特徴残差を適用することで出力特徴を生成するステップと、出力特徴に基づいて画像残差を生成するステップとを実行する。画像残差が入力画像に適用されることで、入力画像よりも解像度が高い高解像度画像が生成される。

Description

本発明の一側面は画像処理装置、画像処理方法、および画像処理プログラムに関する。
従来から、機械学習を用いて画像の解像度を高める手法が知られている。例えば、下記の非特許文献1は、画像の超解像(super−resolution)のためのGenerative Adversarial Network(GAN)であるSRGANを記載する。
C. Ledig, L. Theis, F. Huszar, J. Caballero, A. Aitken, A. Tejani, J. Totz, Z.Wang, and W. Shi, "Photo-realistic single image super-resolution using a generative adversarial network," arXiv:1609.04802, 2016.
処理時間を短縮するために、バイパス接続を含むニューラルネットワークを用いる機械学習を用いて超解像を実行することが考えられる。しかし、バイパス接続をそのまま超解像に適用すると、すべての勾配(層間係数)が0になってしまい、超解像のための機械学習が進まなくなる可能性がある。そこで、入力画像と出力画像との間の解像度の差が小さい場合にも超解像を実行することが可能な機械学習が求められている。
本発明の一側面に係る画像処理装置は、プロセッサを備える画像処理装置であって、プロセッサが、入力画像を取得するステップと、入力画像を畳み込み層により処理することで特徴残差を算出するステップと、入力画像に対して少なくとも一つの畳み込みを実行するステップと、畳み込まれた入力画像に特徴残差を適用することで出力特徴を生成するステップと、出力特徴に基づいて画像残差を生成するステップとを実行し、画像残差が入力画像に適用されることで、入力画像よりも解像度が高い高解像度画像が生成される。
本発明の一側面に係る画像処理方法は、プロセッサを備える画像処理装置により実行される画像処理方法であって、入力画像を取得するステップと、入力画像を畳み込み層により処理することで特徴残差を算出するステップと、入力画像に対して少なくとも一つの畳み込みを実行するステップと、畳み込まれた入力画像に特徴残差を適用することで出力特徴を生成するステップと、出力特徴に基づいて画像残差を生成するステップとを含み、画像残差が入力画像に適用されることで、入力画像よりも解像度が高い高解像度画像が生成される。
本発明の一側面に係る画像処理プログラムは、入力画像を取得するステップと、入力画像を畳み込み層により処理することで特徴残差を算出するステップと、入力画像に対して少なくとも一つの畳み込みを実行するステップと、畳み込まれた入力画像に特徴残差を適用することで出力特徴を生成するステップと、出力特徴に基づいて画像残差を生成するステップとをコンピュータに実行させ、画像残差が入力画像に適用されることで、入力画像よりも解像度が高い高解像度画像が生成される。
このような側面においては、入力画像に対して畳み込みを実行し、畳み込まれた入力画像に特徴残差を適用する処理が必ず実行される。入力画像に対して強制的に畳み込みを実行することで、すべての勾配が0になる事態が避けられるので、入力画像と出力画像との間の解像度の差が小さい場合にも超解像を実行可能な機械学習を実現することができる。
本発明の一側面によれば、入力画像と出力画像との間の解像度の差が小さい場合にも超解像を実行可能な機械学習を実現することができる。
超解像の一例を模式的に示す図である。 実施形態に係る画像処理装置のハードウェア構成を示す図である。 実施形態に係る画像処理装置の機能構成を示す図である。 ニューラルネットワークの第1の処理ブロックを示すフローチャートである。 ニューラルネットワークの第2の処理ブロックを示すフローチャートである。 ニューラルネットワークの一例を示すフローチャートである。 実施形態に係る画像処理装置の学習部による処理を示すフローチャートである。 実施形態に係る画像処理装置の超解像部による処理を示すフローチャートである。 実施形態に係る画像処理プログラムの構成を示す図である。
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。
[概要]
実施形態に係る画像処理装置10は、機械学習(より具体的には、深層学習)により画像の超解像を実行するコンピュータまたはコンピュータシステムである。
「画像」とは、人の視覚で捉えることができるように対象物を何らかの媒体に定着させた像である。画像は、コンピュータでの処理が可能な、画像を示すデータ(画像データ)を処理することで視認可能となる。具体的には、画像は、メモリなどの記憶装置に記録され、プロセッサの処理によりモニタなどの出力装置に出力されることで、視認可能となる。画像は静止画でもよいし、動画を構成する個々のフレームでもよい。
「超解像」とは、解像度の低い画像から高解像度の画像を生成する(すなわち、画像の解像度を高くする)技術である。なお、「解像度」とは、画像における画素の密度を示す数値である。例えば、超解像は、入力画像の解像度が表示装置の解像度に満たない場合に、入力画像の解像度を表示装置の解像度に合わせるように高くするために用いられてもよい。あるいは、超解像は、利用されようとする画像の解像度が所定の基準に満たない場合に、その基準を満たすように該画像の解像度を高くするために用いられてもよい。図1は超解像の一例を模式的に示す。この例では、蝶の羽の部分を示す低解像度画像LRに対して超解像を実行することで高解像度画像HRが得られている。なお、超解像を実行したとしても、解像度がほとんど変わらないかまたは全く変わらなかったり、解像度の変化の度合いが、人の目で判断できないほどに小さかったりする場合があり得る。
画像処理装置10は機械学習(より具体的には、深層学習)により超解像を実行する。「機械学習」とは、与えられた情報に基づいて反復的に学習することで、法則またはルールを自律的に見つけ出す手法である。機械学習は、コンピュータに学習能力を持たせることにより問題を解決しようとするアプローチであるといえる。「深層学習」とは多層構造のニューラルネットワーク(深層ニューラルネットワーク)を用いた機械学習である。「ニューラルネットワーク」とは、人間の脳神経系の仕組みを模した情報処理のモデルである。
画像処理装置10は、機械学習の入力として与えられた低解像度画像と、機械学習の出力(正解)として与えられた高解像度画像とを用いて学習を実行することで、超解像を実現するニューラルネットワークを自律的に生成する。一般に、画像処理装置10は低解像度画像および高解像度画像の複数の組を処理することで超解像の処理手順を反復的に学習する。さらに、画像処理装置10はそのニューラルネットワークを用いて、正解が未知である低解像度画像を処理し、その低解像度画像に対応する高解像度画像を生成する(すなわち、入力された画像の解像度を高くする)。本実施形態における画像処理装置10の特徴の一つは、超解像を実現するニューラルネットワークの基本的な構造に関する。
[装置の構成]
図2は画像処理装置10の一般的なハードウェア構成を示す。画像処理装置10は、オペレーティングシステムやアプリケーション・プログラムなどを実行するプロセッサ101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードまたは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、モニタなどの出力装置106とを備える。プロセッサ101の例としてCPUおよびGPUが挙げられるが、大量の積和演算を行う必要がある深層学習では一般に、並列計算を得意とするGPUが用いられる。
画像処理装置10の各機能要素は、プロセッサ101または主記憶部102の上に所定のソフトウェア(例えば、後述する画像処理プログラムP1)を読み込ませてそのソフトウェアを実行させることで実現される。プロセッサ101はそのソフトウェアに従って、通信制御部104、入力装置105、または出力装置106を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行う。処理に必要なデータまたはデータベースは主記憶部102または補助記憶部103内に格納される。
画像処理装置10は1台のコンピュータで構成されてもよいし、複数台のコンピュータで構成されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータがインターネットやイントラネットなどの通信ネットワークを介して接続されることで、論理的に一つの画像処理装置10が構築される。
図3は画像処理装置10の機能構成を示す。画像処理装置10は機能的構成要素として学習部11および超解像部12を備える。
学習部11は、超解像を実現するニューラルネットワークを自律的に生成する機能要素である。学習部11はデータセットを処理しながら超解像の処理手順を学習することで、最適であると推定されるニューラルネットワークを生成する。「データセット」とは、入力データとその入力データから得られるべき正解データとの組合せの集合である。本明細書では、最適であると推定されるニューラルネットワークを単に「最適なニューラルネットワーク」という。したがって、この「最適なニューラルネットワーク」は“現実に最適である”とは限らないことに留意されたい。
学習部11での計算に用いられるニューラルネットワークモデルは限定されない。本実施形態では、学習部11は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)の一種であるResNetというニューラルネットワークモデルでの残差学習方法を応用する。ResNetは、入力xから出力yを計算するのではなく、出力から入力を引いた残差(residual)f(x)を学習し、入力xに残差f(x)を加算することで出力yを得る。「残差」とは出力と入力との差分であり、したがって「残差」を「差分」と言い換えてもよい。
学習部11は取得部13、残差算出部14、画像生成部15、およびパラメータ更新部16を備える。
取得部13は、データセットを取得する機能要素である。データセットは、画像処理装置10に最適なニューラルネットワークを学習させるための訓練データと、ニューラルネットワークの精度を確かめるためのテストデータとを含んでもよい。
本実施形態におけるデータセットは、超解像の対象となる画像である入力画像と、その入力画像から得られるべき正解画像との複数の(例えば、多数の)組合せである。データセットは、入力画像と、その入力画像よりも解像度が高い正解画像との組合せを含み、この場合には、入力画像は低解像度画像であり、正解画像は高解像度画像であるということができる。データセットはさらに、入力画像および正解画像の双方が高解像度である組合せ(入力画像および正解画像の解像度が同じ組合せ)を含んでもよい。入力画像および正解画像の双方が高解像度である組合せも用いる理由は、入力画像が高解像度画像である場合にその入力画像が過学習されて、却って不鮮明な画像が出力されてしまう事態を防ぐためである。いずれにしても、正解画像の解像度は入力画像の解像度以上である。
データセットを準備する方法は何ら限定されない。例えば、超解像のための機械学習に用いられる画像ライブラリを用いてデータセットを準備してもよい。そのライブラリの例として、Set5、Set14、およびBSD100が挙げられる。入力画像は、例えばライブラリの画像を圧縮し、圧縮した画像をそのまま元の寸法に引き伸ばすことで得ることができる。
残差算出部14は、ResNetの仕組みを利用して入力画像から画像残差を生成する機能要素である。「画像残差」とは、入力画像と出力画像(入力画像を超解像することで得られる高解像度画像)との残差(差分)の推定結果である。
画像生成部15は、入力画像に画像残差を適用することで、入力画像よりも解像度が高い高解像度画像を生成する機能要素である。具体的には、画像生成部15は入力画像と画像残差とを要素ごとに加算することで高解像度画像を生成する。
パラメータ更新部16は、ニューラルネットワークのパラメータを更新する機能要素である。パラメータ更新部16は、正解画像に対する高解像度画像の誤差(高解像度画像と正解画像との差分)を求め、この誤差に基づいてニューラルネットワークのパラメータ(例えば、重み)を更新する。パラメータの更新方法は限定されないが、例えば、パラメータ更新部16はバックプロパゲーション(誤差逆伝播法)を用いてパラメータを更新してもよい。バックプロパゲーションは、出力側から入力側に向かって進みながら、各ニューロンの重みを局所誤差が小さくなるように修正する手法である。
学習部11は、個々の入力画像を処理しながらニューラルネットワークのパラメータを更新しながら(すなわち、学習を繰り返しながら)ニューラルネットワークのパラメータ(例えば重み)を学習することで、最適なニューラルネットワークを生成する。本実施形態では、超解像部12がその最適なニューラルネットワークを用いる。
超解像部12は、学習部11により生成されたニューラルネットワークを用いて、正解が未知である入力画像を処理することで、該入力画像よりも解像度が高い高解像度画像を生成する機能要素である。超解像部12は取得部13、残差算出部14、および画像生成部15を備える。取得部13、残差算出部14、および画像生成部15の機能は学習部11および超解像部12の間で共通する。
取得部13は、超解像の対象となる画像である入力画像を取得する機能要素である。例えば、取得部13は、解像度を高くしたい低解像度画像を入力画像として取得する。残差算出部14は、学習部11により生成されたニューラルネットワークを用いて入力画像から画像残差を生成する。画像生成部15は、入力画像にその画像残差を適用することで、入力画像よりも解像度が高い高解像度画像を生成する。画像生成部15は入力画像と画像残差とを要素ごとに加算することで高解像度画像を生成し、その高解像度画像を出力する。
[装置の動作]
次に、図4〜図8を参照しながら、画像処理装置10の動作を説明するとともに本実施形態に係る画像処理方法について説明する。
図4および図5を参照しながら、学習部11および超解像部12で用いられるニューラルネットワーク(すなわち、ResNetに基づくニューラルネットワーク)の基本ユニットである2種類の処理ブロックについて説明する。これらの処理ブロックは「残差ブロック」ともいわれる。双方の処理ブロックはいずれも畳み込み層CLおよびバイパス接続(bypass connection)BCを含む。「畳み込み層」とは、入力に対して畳み込みを実行することで残差を求める処理である。「バイパス接続」とは、入力をそのまま流す処理であり、「ショートカット接続(shortcut connection)」とも呼ばれる。図4は第1の処理ブロックを示すフローチャートであり、図5は第2の処理ブロックを示すフローチャートである。
第1の処理ブロックでは、残差算出部14が入力特徴(第1の入力特徴)h(x)を受け付ける(ステップS11)。「入力特徴」とは、入力画像の何らかの特徴を示し、畳み込み層に入力されるデータである。CNNでは、畳み込み層の入出力データを「特徴マップ」ともいうので、入力特徴は、畳み込み層に入力される特徴マップであるともいうことができる。概念的には入力特徴は入力画像と同視できる。したがって、h(x)は入力画像を示すということができ、第1の処理ブロックは入力画像を受け付けるということができる。
続いて、残差算出部14は入力特徴h(x)を畳み込み層(第1の畳み込み層)CLにより処理することで特徴残差(第1の特徴残差)f(h(x))を算出する(ステップS12)。「特徴残差」とは、入力特徴と出力特徴(入力特徴に対して処理ブロックを実行することで得られる特徴マップ)との残差(差分)の推定結果である。残差算出部14は入力特徴h(x)に対して畳み込みおよびReLU(Rectified Linear Unit)関数を実行することで残差f(h(x))を算出する。例えば、残差f(h(x))は下記式で定義されてもよい。なお、wは重みを示す。
f(h(x))=wt+3*(max(0,wt+2*max(0,wt+1*h(x))))
「畳み込み」とは、入力データに対して所定のサイズ(例えば3×3)のフィルタ(カーネル)を適用する演算である。具体的には、フィルタの要素と入力データの対応する要素とを乗算してその和を求める処理を、フィルタを1画素分ずつずらしながら繰り返すことで、特徴マップを生成する。ReLU関数は、入力が0を超えていればその入力をそのまま出力し、入力が0以下ならば0を出力する活性化関数である。
図4に示す例では、畳み込み層CLは畳み込みおよびReLU関数の組合せを二つと一つの畳み込みとを含むが、畳み込み層CLの構成はこれに限定されるものではない。例えば、畳み込み層CL内での、畳み込みおよびReLU関数の組合せの個数は1でもよいし3以上でもよい。
続いて、残差算出部14は入力特徴h(x)に特徴残差f(h(x))を適用することで出力特徴(第1の出力特徴)yを生成する。具体的には、残差算出部14は特徴残差f(h(x))と入力特徴h(x)とを要素ごとに合算することで出力特徴yを生成する(ステップS13)。すなわち、y=f(h(x))+h(x)である。
ニューラルネットワークの処理ブロックを第1の処理ブロックのみで構築すると、すべての処理ブロックがバイパス接続を含むため、畳み込み層においてすべての勾配が0になってしまって機械学習が進まなくなる可能性がある。本実施形態では、その状況を回避して機械学習を良好に進めるために、少なくとも一部の処理ブロックにおいて、バイパス接続にも畳み込み演算を導入する。このようにバイパス接続を変形させた処理ブロックが第2の処理ブロックである。第2の処理ブロックは、バイパス接続BCの途中に畳み込みが設けられる点で、第1の処理ブロックと異なる。
第2の処理ブロックでは、残差算出部14が入力特徴(第2の入力特徴)h(x)を受け付ける(ステップS21)。上述したように、概念的には入力特徴は入力画像と同視できるから、h(x)は入力画像を示すということができ、第2の処理ブロックは入力画像を受け付けるということができる。残差算出部14はその入力特徴h(x)を畳み込み層(第2の畳み込み層)CLにより処理することで特徴残差(第2の特徴残差)f(h(x))を算出する(ステップS22)。ステップS21およびS22の処理は、第1の処理ブロックにおけるステップS11およびS12と同じである。
また、残差算出部14は、バイパス接続BCを通る入力特徴h(x)に対して一つの畳み込みを実行することで、入力特徴h(x)から、畳み込まれた入力特徴(w*h(x))を得る(ステップS23)。そして、残差算出部14は畳み込まれた入力特徴(w*h(x))に特徴残差f(h(x))を適用することで出力特徴(第2の出力特徴)yを生成する。具体的には、残差算出部14は特徴残差f(h(x))と畳み込まれた入力特徴(w*h(x))とを要素ごとに合算することで出力特徴yを生成する(ステップS24)。すなわち、y=f(h(x))+(w*h(x))である。このように、入力画像に基づく入力特徴を強制的に畳み込むことで(言い換えると、入力画像を強制的に畳み込むことで)、すべての勾配が0になる事態が避けられるので、機械学習を良好に進めることが可能になる。
第2の処理ブロックの構成は図5の例に限定されない。例えば、第1の処理ブロックと同様に、畳み込み層CL内での、畳み込みおよびReLU関数の組合せの個数は1でもよいし3以上でもよい。バイパス接続BCでの畳み込みの処理手順も図5の例に限定されず、例えば、バイパス接続BCが、畳み込みおよびReLU関数の組合せをさらに含んでもよい。図5の例に示すようにバイパス接続BCに一つの畳み込みのみを含めることで、処理時間の増大を抑制しつつ、すべての勾配が0になる事態を避けることができる。
図6は、第2の処理ブロックを含むニューラルネットワークの一例を示すフローチャートである。この処理は学習部11および超解像部12の双方で実行される。
まず、残差算出部14が入力画像に対して畳み込みおよびReLU関数を実行することで、入力画像の特徴を示す特徴マップを生成する(ステップS31)。例えば、残差算出部14は、フィルタサイズが3×3でありチャンネル数が64である畳み込みを実行することで特徴マップを生成する。
続いて、残差算出部14は第2の処理ブロックを少なくとも一回用いてその特徴マップを処理する(ステップS32)。複数の処理ブロックを用いる場合には、これらの処理ブロックは直列につなげられ、したがって、ある処理ブロックで得られた出力特徴yが、次の処理ブロックで入力特徴(入力画像)h(x)として処理される。
図6は、残差算出部14が第1の処理ブロックおよび第2の処理ブロックを交互に実行する例を示す。この例では、1,3,5番目の処理ブロックが第1の処理ブロックであり、2,4番目の処理ブロックが第2の処理ブロックである。しかし、処理ブロックの実行順序はこれに限定されない。例えば、1,3,5番目の処理ブロックが第2の処理ブロックであり、2,4番目の処理ブロックが第1の処理ブロックであってもよい。いずれにしても、2種類の処理ブロックを交互に実行することで、計算時間を抑えつつ高精度な超解像を実現することができる。
第1および第2の処理ブロックを交互に実行することは必須ではない。例えば、残差算出部14は第1および第2の処理ブロックをランダムな順序で実行してもよい。あるいは、残差算出部14は第1の処理ブロックを用いることなく第2の処理ブロックのみを1回以上実行してもよい。
図6は残差算出部14が5個の処理ブロックを実行する例を示すが、実行する処理ブロックの個数は限定されず、例えばその個数は7または9でもよいし、10以上でもよい。
いずれにしても、残差算出部14は少なくとも一つの第2の処理ブロックを含む一以上の処理ブロックを実行することで出力特徴を得る。続いて、残差算出部14はその出力特徴に対して畳み込みを実行することで、特徴マップの次元を入力画像に合わせるように修正する(ステップS33)。例えば、残差算出部14は、サイズが3×3である単一のフィルタを用いた畳み込みを実行する。
続いて、残差算出部14は次元が修正された特徴マップに対して特徴スケーリング(feature scaling)を実行することで、入力画像に対する画像残差を生成する(ステップS34)。この特徴スケーリングは、入力画像の全画素に対応する特徴マップの全要素に共通の係数λを乗ずる処理である。画像残差の分布に合うようにその係数λを設定することで、機械学習が効率良く収束するので、計算時間を短縮することができる。
続いて、画像生成部15が、入力画像に画像残差を加算することで(より具体的には、入力画像と画像残差とを要素ごとに合算することで)高解像度画像を生成する(ステップS35)。
図7は、学習部11による処理を示すフローチャートである。まず、取得部13がデータセットを取得する(ステップS41)。データセットの取得方法は限定されない。例えば、取得部13はデータセットを記憶する画像データベースにアクセスしてデータセットを読み出してもよい。なお、画像データベースは画像処理装置10とは別の装置であってもよいし、画像処理装置10の一部であってもよい。あるいは、取得部13は画像処理装置10のユーザにより入力または指定されたデータセットを取得してもよい。あるいは、取得部13は他のコンピュータからデータセットを受信してもよい。続いて、取得部13は入力画像および正解画像の一つの組合せを処理対象としてデータセットから選択する(ステップS42)。
続いて、残差算出部14および画像生成部15が、図6に示す処理(ニューラルネットワーク)により、選択された入力画像から高解像度画像を生成する(ステップS43)。ステップS43は、図6に示すステップS31〜S35に相当する。続いて、パラメータ更新部16が生成された高解像度画像と選択された正解画像との差分を求め、その差分に基づいてニューラルネットワークのパラメータを更新する(ステップS44)。学習部11はデータセット内のすべての組合せを処理するまで、入力画像および正解画像の組合せを変えながらステップS42〜S44の処理を繰り返す(ステップS45参照)。最後に、学習部11は最適なニューラルネットワークのパラメータ(例えば重み)を出力する(ステップS46)。本実施形態では、超解像部12が、そのパラメータに基づくニューラルネットワークを用いる。
図8は、超解像部12による処理を示すフローチャートである。まず、取得部13が入力画像を取得する(ステップS51)。学習部11と同様に、入力画像の取得方法は限定されない。例えば、取得部13は画像データベースから入力画像を読み出してもよいし、ユーザにより入力または指定された入力画像を取得してもよいし、他のコンピュータから入力画像を受信してもよい。続いて、残差算出部14および画像生成部15が、図6に示す処理(ニューラルネットワーク)により、選択された入力画像から高解像度画像を生成する(ステップS52)。ステップS52は、図6に示すステップS31〜S35に相当し、したがって、図7に示すステップS43と同様の処理である。ただし、超解像部12では、残差算出部14は学習部11により生成された最適なニューラルネットワークを用いる。最後に、画像生成部15が、生成された高解像度画像を出力する(ステップS53)。高解像度画像の出力方法は限定されない。例えば、画像生成部15は高解像度画像を、所定のデータベースに格納してもよいし、他のコンピュータに送信してもよいし、モニタ上に描画してもよい。
[プログラム]
次に、図9を参照しながら、コンピュータを画像処理装置10として機能させるための画像処理プログラムP1を説明する。図9は画像処理プログラムP1の構成を示す図である。
画像処理プログラムP1はメインモジュールP10、取得モジュールP11、残差算出モジュールP12、画像生成モジュールP13、およびパラメータ更新モジュールP14を含む。メインモジュールP10は、ニューラルネットワークの生成と超解像とを統括的に管理する部分である。取得モジュールP11、残差算出モジュールP12、画像生成モジュールP13、およびパラメータ更新モジュールP14を実行することで、取得部13、残差算出部14、画像生成部15、およびパラメータ更新部16が実現する。取得モジュールP11、残差算出モジュールP12、および画像生成モジュールP13は、学習部11および超解像部12の双方のために用いられる。
画像処理プログラムP1は、例えば、CD−ROM、DVD−ROM、半導体メモリなどの有形の記録媒体に固定的に記録された上で提供されてもよい。あるいは、画像処理プログラムP1は、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。
[効果]
以上説明したように、本発明の一側面に係る画像処理装置は、プロセッサを備える画像処理装置であって、プロセッサが、入力画像を取得するステップと、入力画像を畳み込み層により処理することで特徴残差を算出するステップと、入力画像に対して少なくとも一つの畳み込みを実行するステップと、畳み込まれた入力画像に特徴残差を適用することで出力特徴を生成するステップと、出力特徴に基づいて画像残差を生成するステップとを実行し、画像残差が入力画像に適用されることで、入力画像よりも解像度が高い高解像度画像が生成される。
本発明の一側面に係る画像処理方法は、プロセッサを備える画像処理装置により実行される画像処理方法であって、入力画像を取得するステップと、入力画像を畳み込み層により処理することで特徴残差を算出するステップと、入力画像に対して少なくとも一つの畳み込みを実行するステップと、畳み込まれた入力画像に特徴残差を適用することで出力特徴を生成するステップと、出力特徴に基づいて画像残差を生成するステップとを含み、画像残差が入力画像に適用されることで、入力画像よりも解像度が高い高解像度画像が生成される。
本発明の一側面に係る画像処理プログラムは、入力画像を取得するステップと、入力画像を畳み込み層により処理することで特徴残差を算出するステップと、入力画像に対して少なくとも一つの畳み込みを実行するステップと、畳み込まれた入力画像に特徴残差を適用することで出力特徴を生成するステップと、出力特徴に基づいて画像残差を生成するステップとをコンピュータに実行させ、画像残差が入力画像に適用されることで、入力画像よりも解像度が高い高解像度画像が生成される。
このような側面においては、入力画像に対して畳み込みを実行し、畳み込まれた入力画像に特徴残差を適用する処理が必ず実行される。入力画像に対して強制的に畳み込みを実行することで、すべての勾配が0になる事態が避けられるので、入力画像と出力画像との間の解像度の差が小さい場合にも超解像を実行可能な機械学習を実現することができる。
より具体的には、入力特徴そのものに対して畳み込みを実行し、畳み込まれた入力特徴に特徴残差(入力特徴の残差)を適用する処理が必ず実行される。入力特徴そのものに対して強制的に畳み込みを実行することで、すべての勾配が0になる事態が避けられるので、入力画像と出力画像との間の解像度の差が小さい場合にも超解像を実行可能な機械学習を実現することができる。
他の側面に係る画像処理装置では、前記プロセッサが、第1の処理ブロックおよび第2の処理ブロックを含むニューラルネットワークを用いて画像残差を生成し、第1の処理ブロックが、入力画像に基づく第1の入力特徴を第1の畳み込み層により処理することで第1の特徴残差を算出するステップと、第1の入力特徴に第1の特徴残差を適用することで第1の出力特徴を生成するステップとを含み、第2の処理ブロックが、入力画像に基づく第2の入力特徴を第2の畳み込み層により処理することで第2の特徴残差を算出するステップと、第2の入力特徴に対して少なくとも一つの畳み込みを実行するステップと、畳み込まれた第2の入力特徴に第2の特徴残差を適用することで第2の出力特徴を生成するステップとを含んでもよい。
入力特徴そのものに特徴残差を適用する処理(第1の処理ブロック)と、入力特徴を畳み込んでから特徴残差を適用する処理(第2の処理ブロック)との双方を用いることで、超解像の処理時間の増大を防ぎつつ入力画像の解像度を良好に上げることが可能になる。
他の側面に係る画像処理装置では、プロセッサが第1の処理ブロックおよび第2の処理ブロックを交互に実行してもよい。2種類の処理ブロックを交互に実行することで、計算時間を抑えつつ高精度な超解像を実現することができる。
ここで、2種類の処理ブロックの実行順序に関する実験結果を説明する。上記実施形態における画像処理装置10を構築し、2種類の処理ブロックの実行順序を変えながら、各パターンでの超解像の精度を確かめた。画像ライブラリとしてSet5を用いた。このライブラリの画像を圧縮し、圧縮した画像をそのまま元の寸法に引き伸ばすことで低解像度の入力画像を得た。具体的には、一つのライブラリ画像を1/2、1/3、または1/4に圧縮する処理を介して、一つのライブラリ画像から三つの入力画像(低解像度画像)を得た。ライブラリ画像そのものは正解画像(高解像度画像)に相当する。
第1および第2の処理ブロックの実行順序については下記の7パターンを設定した。「0」は第1の処理ブロックを示し、「1」は第2の処理ブロックを示し、数字の並びは処理の流れを示す。例えば、パターン3は、第2の処理ブロックが2回続けて実行された後に、第1の処理ブロックが3回続けて実行されることを示す。また、パターン5,6はいずれも、第1の処理ブロックと第2処理ブロックとが交互に実行されることを示す。すべてのパターンにおいて、ニューラルネットワークに含まれる処理ブロックの個数を5に統一した。パターン1は第2の処理ブロックを含まないので、比較例であるといえる。
・パターン1:00000
・パターン2:00100
・パターン3:11000
・パターン4:10001
・パターン5:01010
・パターン6:10101
・パターン7:11111
機械学習に関する他の設定は以下の通りである。
・確率的勾配降下法を用いたCNN
・モメンタム(momentum)=0.9
・重み減衰(weight decay)=10−4
・勾配刈り込み(gradient clipping)の閾値=1.0
・学習率(learning rate):初期値は1であり、10エポック毎に10分の1に変更。
・特徴スケーリングでの係数の初期値=0.1
機械学習による超解像の結果をピーク信号対雑音比(PSNR:Peak signal−to−noise ratio)で評価した。下記の表1は、各パターンにおけるPSNR値を示し(単位はデシベル(dB)である。)、値が高いほど画質が良いと評価できる。「X2」、「X3」、および「X4」はそれぞれ、1/2圧縮の入力画像、1/3圧縮の入力画像、1/4圧縮の入力画像を示す。この実験より、第2の処理ブロックを多く含むほど学習効果が高くなることがわかった。また、第2の処理ブロックの個数が同じ場合には、第2の処理ブロックを交互に配置させた方が学習効果が高くなることもわかった。表1には示していないが、第2の処理ブロックの個数が多いと処理時間が長くなった。したがって、2種類の処理ブロックを交互に実行することは、計算時間を抑えつつ高精度な超解像を実現する一手法であるといえる。
Figure 2018216207
他の側面に係る画像処理装置では、プロセッサが、出力特徴に対して特徴スケーリングを実行することで画像残差を生成してもよい。この特徴スケーリングにより機械学習が効率良く収束するので、計算時間を短縮することができる。
[変形例]
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
上記実施形態では画像処理装置が学習部11および超解像部12を含むが、画像処理装置は学習部および超解像部のどちらか一方のみを備えてもよい。画像処理装置が超解像部を備えず学習部を備える場合には、学習部が最適なニューラルネットワークを出力し、他のコンピュータがそのニューラルネットワークを用いて超解像を実行してもよい。画像処理装置が学習部を備えず超解像部を備える場合には、超解像部は他のコンピュータから学習済のニューラルネットワークを取得し、そのニューラルネットワークを用いて超解像を実行してもよい。いずれにしても、画像処理装置は、(A)入力画像を取得し、(B)入力画像を畳み込み層により処理することで特徴残差を算出し、(C)入力画像に対して少なくとも一つの畳み込みを実行し、(D)畳み込まれた入力画像に特徴残差を適用することで出力特徴を生成し、(E)出力特徴に基づいて画像残差を生成する。画像残差が入力画像に適用されることで、入力画像よりも解像度が高い高解像度画像が生成される。
画像処理装置は画像残差を生成するまでの処理を実行し、他のコンピュータがその画像残差を入力画像に適用することで高解像度画像を生成してもよい。したがって、高解像度画像の生成は画像処理装置の必須の処理ではない。
少なくとも一つのプロセッサにより実行される画像処理方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正または削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。
10…画像処理装置、11…学習部、12…超解像部、13…取得部、14…残差算出部、15…画像生成部、16…パラメータ更新部、CL…畳み込み層、BC…バイパス接続、P1…画像処理プログラム、P10…メインモジュール、P11…取得モジュール、P12…残差算出モジュール、P13…画像生成モジュール、P14…パラメータ更新モジュール。

Claims (6)

  1. プロセッサを備える画像処理装置であって、
    前記プロセッサが、
    入力画像を取得するステップと、
    前記入力画像を畳み込み層により処理することで特徴残差を算出するステップと、
    前記入力画像に対して少なくとも一つの畳み込みを実行するステップと、
    前記畳み込まれた入力画像に前記特徴残差を適用することで出力特徴を生成するステップと、
    前記出力特徴に基づいて画像残差を生成するステップとを実行し、
    前記画像残差が前記入力画像に適用されることで、前記入力画像よりも解像度が高い高解像度画像が生成される、
    画像処理装置。
  2. 前記プロセッサが、第1の処理ブロックおよび第2の処理ブロックを含むニューラルネットワークを用いて前記画像残差を生成し、
    前記第1の処理ブロックが、
    前記入力画像に基づく第1の入力特徴を第1の畳み込み層により処理することで第1の特徴残差を算出するステップと、
    前記第1の入力特徴に前記第1の特徴残差を適用することで第1の出力特徴を生成するステップとを含み、
    前記第2の処理ブロックが、
    前記入力画像に基づく第2の入力特徴を第2の畳み込み層により処理することで第2の特徴残差を算出するステップと、
    前記第2の入力特徴に対して前記少なくとも一つの畳み込みを実行するステップと、
    前記畳み込まれた第2の入力特徴に前記第2の特徴残差を適用することで第2の出力特徴を生成するステップとを含む、
    請求項1に記載の画像処理装置。
  3. 前記プロセッサが前記第1の処理ブロックおよび前記第2の処理ブロックを交互に実行する、
    請求項2に記載の画像処理装置。
  4. 前記プロセッサが、前記出力特徴に対して特徴スケーリングを実行することで前記画像残差を生成する、
    請求項1〜3のいずれか一項に記載の画像処理装置。
  5. プロセッサを備える画像処理装置により実行される画像処理方法であって、
    入力画像を取得するステップと、
    前記入力画像を畳み込み層により処理することで特徴残差を算出するステップと、
    前記入力画像に対して少なくとも一つの畳み込みを実行するステップと、
    前記畳み込まれた入力画像に前記特徴残差を適用することで出力特徴を生成するステップと、
    前記出力特徴に基づいて画像残差を生成するステップと
    を含み、
    前記画像残差が前記入力画像に適用されることで、前記入力画像よりも解像度が高い高解像度画像が生成される、
    画像処理方法。
  6. 入力画像を取得するステップと、
    前記入力画像を畳み込み層により処理することで特徴残差を算出するステップと、
    前記入力画像に対して少なくとも一つの畳み込みを実行するステップと、
    前記畳み込まれた入力画像に前記特徴残差を適用することで出力特徴を生成するステップと、
    前記出力特徴に基づいて画像残差を生成するステップと
    をコンピュータに実行させ、
    前記画像残差が前記入力画像に適用されることで、前記入力画像よりも解像度が高い高解像度画像が生成される、
    画像処理プログラム。
JP2017549838A 2017-05-26 2017-05-26 画像処理装置、画像処理方法、および画像処理プログラム Active JP6276901B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/019738 WO2018216207A1 (ja) 2017-05-26 2017-05-26 画像処理装置、画像処理方法、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP6276901B1 JP6276901B1 (ja) 2018-02-07
JPWO2018216207A1 true JPWO2018216207A1 (ja) 2019-06-27

Family

ID=61158449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017549838A Active JP6276901B1 (ja) 2017-05-26 2017-05-26 画像処理装置、画像処理方法、および画像処理プログラム

Country Status (3)

Country Link
US (1) US10970819B2 (ja)
JP (1) JP6276901B1 (ja)
WO (1) WO2018216207A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10489887B2 (en) 2017-04-10 2019-11-26 Samsung Electronics Co., Ltd. System and method for deep learning image super resolution
WO2019142242A1 (ja) * 2018-01-16 2019-07-25 オリンパス株式会社 データ処理システムおよびデータ処理方法
JP2019153057A (ja) * 2018-03-02 2019-09-12 富士通株式会社 画像処理装置、学習装置、画像処理方法、学習方法、画像処理プログラムおよび学習プログラム
KR101896406B1 (ko) * 2018-03-13 2018-10-22 연세대학교 산학협력단 블랙박스 영상을 이용한 딥러닝 기반의 픽셀 단위 도로 크랙 검출 장치 및 그 방법, 그리고 이 방법을 실행시키기 위해 컴퓨터가 판독 가능한 기록매체에 저장된 컴퓨터 프로그램
US10540749B2 (en) * 2018-03-29 2020-01-21 Mitsubishi Electric Research Laboratories, Inc. System and method for learning-based image super-resolution
JP6601825B2 (ja) * 2018-04-06 2019-11-06 株式会社EmbodyMe 画像処理装置および2次元画像生成用プログラム
KR102179436B1 (ko) * 2018-04-24 2020-11-16 주식회사 지디에프랩 변화 매크로블록 추출 기법을 이용한 동영상 화질 개선 시스템
JP6570164B1 (ja) * 2018-11-28 2019-09-04 株式会社ツバサファクトリー コンピュータプログラム、画像処理方法、及び画像処理装置
JP7121678B2 (ja) * 2019-03-15 2022-08-18 Kddi株式会社 画像処理装置、プログラム及び学習方法
US11080824B2 (en) * 2019-08-15 2021-08-03 Disney Enterprises, Inc. Techniques for upscaling images generated with undetermined downscaling kernels
CN112446834A (zh) * 2019-09-04 2021-03-05 华为技术有限公司 图像增强方法和装置
CN113096166B (zh) * 2019-12-17 2023-08-18 上海美杰医疗科技有限公司 一种医学影像配准的方法和装置
KR102089230B1 (ko) * 2019-12-30 2020-03-13 주식회사 애자일소다 영상을 이용한 차량의 속도 예측 장치 및 방법
WO2021157062A1 (ja) * 2020-02-07 2021-08-12 日本電信電話株式会社 量子化ビット数拡張のための学習装置、信号推定装置、学習方法、信号推定方法、およびプログラム
TWI733341B (zh) * 2020-02-20 2021-07-11 瑞昱半導體股份有限公司 用於圖像放大與增強的方法與裝置
KR102634627B1 (ko) * 2021-12-14 2024-02-08 주식회사 카이 라이브 스트리밍 방법 및 장치

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11423311B2 (en) * 2015-06-04 2022-08-23 Samsung Electronics Co., Ltd. Automatic tuning of artificial neural networks
US20170140260A1 (en) * 2015-11-17 2017-05-18 RCRDCLUB Corporation Content filtering with convolutional neural networks
KR102301232B1 (ko) * 2017-05-31 2021-09-10 삼성전자주식회사 다채널 특징맵 영상을 처리하는 방법 및 장치
KR102419136B1 (ko) * 2017-06-15 2022-07-08 삼성전자주식회사 다채널 특징맵을 이용하는 영상 처리 장치 및 방법
US10751548B2 (en) * 2017-07-28 2020-08-25 Elekta, Inc. Automated image segmentation using DCNN such as for radiation therapy
WO2019079180A1 (en) * 2017-10-16 2019-04-25 Illumina, Inc. NEURONAL NETWORKS WITH DEEP CONVOLUTION OF VARIANT CLASSIFICATION

Also Published As

Publication number Publication date
JP6276901B1 (ja) 2018-02-07
WO2018216207A1 (ja) 2018-11-29
US20200302576A1 (en) 2020-09-24
US10970819B2 (en) 2021-04-06

Similar Documents

Publication Publication Date Title
JP6276901B1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US20240127043A1 (en) Image processing system and medical information processing system
KR101871098B1 (ko) 이미지 처리 방법 및 장치
JP2021100247A (ja) 歪んだドキュメント画像の矯正方法及び装置
JP2018181187A (ja) データ分析装置、データ分析方法、およびデータ分析プログラム
US10642622B2 (en) Arithmetic processing device and control method of the arithmetic processing device
US11822900B2 (en) Filter processing device and method of performing convolution operation at filter processing device
WO2018225133A1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
CN111383742A (zh) 一种医学成像模型的建立方法、装置、设备及存储介质
JP2019023798A (ja) 超解像装置およびプログラム
CN112836804A (zh) 图像处理方法、装置、电子设备及存储介质
JP6583875B1 (ja) 画像処理方法、画像処理システム及び画像処理プログラム
WO2018235357A1 (ja) 演算装置、演算方法及びプログラム
JP2021034038A5 (ja)
JP2022533264A (ja) 自己回帰ビデオ生成ニューラルネットワーク
CN111105471A (zh) 用于生成与成像有关的采样掩码的方法和装置
JP5761988B2 (ja) 画像処理装置、画像処理方法
KR102126916B1 (ko) 블러된 영상 복원을 위한 장치 및 방법
JP7169768B2 (ja) 画像処理装置、画像処理方法
KR102537207B1 (ko) 머신 러닝에 기반한 이미지 처리 방법 및 장치
Viriyavisuthisakul et al. A regularization-based generative adversarial network for single image super-resolution
JP6994572B2 (ja) データ処理システムおよびデータ処理方法
JP2016167736A (ja) 画像変換装置、画像変換方法及び画像変換プログラム
Mateos et al. Bayesian high resolution image reconstruction with incomplete multisensor low resolution systems
CN115170916B (zh) 一种多尺度特征融合的图像重建方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170922

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170922

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180112

R150 Certificate of patent or registration of utility model

Ref document number: 6276901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250