JP2019121972A - 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体 - Google Patents

画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体 Download PDF

Info

Publication number
JP2019121972A
JP2019121972A JP2018001551A JP2018001551A JP2019121972A JP 2019121972 A JP2019121972 A JP 2019121972A JP 2018001551 A JP2018001551 A JP 2018001551A JP 2018001551 A JP2018001551 A JP 2018001551A JP 2019121972 A JP2019121972 A JP 2019121972A
Authority
JP
Japan
Prior art keywords
image
pupil
image processing
imaging
coefficient data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018001551A
Other languages
English (en)
Other versions
JP7009219B2 (ja
Inventor
法人 日浅
Norito Hiasa
法人 日浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018001551A priority Critical patent/JP7009219B2/ja
Publication of JP2019121972A publication Critical patent/JP2019121972A/ja
Application granted granted Critical
Publication of JP7009219B2 publication Critical patent/JP7009219B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)

Abstract

【課題】輝度飽和が発生している場合でも高精度に瞳を分割した画像を推定することが可能な画像処理方法を提供する。【解決手段】画像処理方法は、光学系の第1の瞳を介して被写体空間を撮像することで得られた第1の画像と、第1の瞳の一部である第2の瞳を介して被写体空間を撮像することで得られた第2の画像とに基づく入力画像を取得する工程と、入力層と出力層の間に複数の中間層を有するニューラルネットワークを用いて、光学系の第3の瞳を介して被写体空間を撮像することで得られる画像に相当する第3の画像を入力画像から生成する工程とを有し、前記第3の瞳は、第1の瞳の一部であって第2の瞳とは異なる。【選択図】図1

Description

本発明は、撮像画像から光学系の瞳を分割した画像を推定する画像処理方法に関する。
特許文献1には、一つの画素内に二つの光電変換部を有する撮像素子において、二つの光電変換部の加算信号と一方の光電変換部の信号とを読み出し、両者の信号の差分から他方の光電変換部の信号を求める方法が開示されている。
特許第4691930号公報
しかし、特許文献1に開示された方法では、二つの光電変換部の加算信号が輝度飽和している場合、二つの光電変換部の加算信号と一方の光電変換部の信号との差分から他方の光電変換部の信号を正確に求めることができない。すなわち、この場合には瞳を分割した画像を高精度に推定することができない。
そこで本発明は、輝度飽和が発生している場合でも高精度に瞳を分割した画像を推定することが可能な画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体を提供することを目的とする。
本発明の一側面としての画像処理方法は、光学系の第1の瞳を介して被写体空間を撮像することで得られた第1の画像と、前記第1の瞳の一部である第2の瞳を介して前記被写体空間を撮像することで得られた第2の画像とに基づく入力画像を取得する工程と、入力層と出力層の間に複数の中間層を有するニューラルネットワークを用いて、前記光学系の第3の瞳を介して前記被写体空間を撮像することで得られる画像に相当する第3の画像を前記入力画像から生成する工程とを有し、前記第3の瞳は、前記第1の瞳の一部であって前記第2の瞳とは異なる。
本発明の他の側面としての画像処理装置は、光学系の第1の瞳を介して被写体空間を撮像することで得られた第1の画像と、前記第1の瞳の一部である第2の瞳を介して前記被写体空間を撮像することで得られた第2の画像と、に基づく入力画像を取得する取得手段と、入力層と出力層の間に複数の中間層を有するニューラルネットワークを用いて、前記光学系の第3の瞳を介して前記被写体空間を撮像することで得られる画像に相当する第3の画像を前記入力画像から生成する生成手段とを有し、前記第3の瞳は、前記第1の瞳の一部であって前記第2の瞳とは異なる。
本発明の他の側面としての撮像装置は、光学系により形成された光学像を光電変換する撮像素子と、前記画像処理装置とを有する。
本発明の他の側面としての画像処理プログラムは、前記画像処理方法をコンピュータに実行させる。
本発明の他の側面としての記憶媒体は、前記画像処理プログラムを記憶している。
本発明の目的及び特徴は、以下の実施例において説明される。
本発明によれば、輝度飽和が発生している場合でも高精度に瞳を分割した画像を推定することが可能な画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体を提供することができる。
各実施例における画像生成のネットワーク構造を示す図である。 実施例1における撮像装置のブロック図である。 実施例1および実施例3における撮像装置の外観図である。 実施例1における撮像部の説明図である。 実施例1および実施例2における画像推定処理のフローチャートである。 実施例1および実施例3における画像推定処理の説明図である。 実施例1における分割瞳と像高とヴィネッティングとの関係を示す図である。 各実施例における係数データの学習に関するフローチャートである。 実施例1における各像高とアジムスでの瞳分割の説明図である。 実施例2における画像処理システムのブロック図である。 実施例2における画像処理システムの外観図である。 実施例2における撮像素子の構成図である。 実施例2における画像推定処理のフローチャートである。 実施例3における撮像装置のブロック図である。 実施例3における撮像装置の外観図である。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。
実施例の具体的な説明へ入る前に、本発明の要旨を述べる。本発明では、ある瞳(第2の瞳)で撮像した画像(第2の画像)と、前記瞳と別の瞳とが合成された瞳(第1の瞳)で撮像した画像(第1の画像)から、ディープラーニングを用いて、前記別の瞳(第3の瞳)で撮像した画像(第3の画像)を推定する。この際、ディープラーニングの学習の際に輝度飽和が発生した学習データを用いることにより、輝度飽和が発生した場合でも高精度に画像(第3の画像)を推定することができる。
まず、図2および図3を参照して、本発明の実施例1における撮像装置について説明する。図2は、撮像装置100のブロック図である。図3は、撮像装置100の外観図である。まず、撮像装置100の各部の概略を説明し、その詳細については後述する。
図2に示されるように、撮像装置100は、被写体空間の像を撮影画像(入力画像)として取得する撮像部101を有する。撮像部101は、被写体空間からの入射光を集光する結像光学系101aと、複数の画素を有する撮像素子101bとを有する。撮像素子101bは、例えば、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal−Oxide Semiconductor)センサである。
図4は、撮像部101の説明図である。図4(A)は、撮像部101の断面図を示し、一点鎖線は軸上光束を表している。図4(B)は、撮像素子101bの上面図である。撮像素子101bは、マイクロレンズアレイ122と複数の画素121とを有する。マイクロレンズアレイ122は、結像光学系101aを介して被写体面120と共役の位置に配置されている。図4(B)に示されるように、マイクロレンズアレイ122を構成するマイクロレンズ122(マイクロレンズ122aのみ表記し、122b以降は省略)は、複数の画素121(画素121aのみ表記し、121b以降は省略)のそれぞれと対応している。ここで、複数の部位をまとめて指定する際は番号のみを付し、そのうちの1つを示す際は番号とaなどの記号を付す。
複数の画素121のそれぞれは、結像光学系101aを介して形成された光学像を光電変換する第1の光電変換部123および第2の光電変換部124を有する。これにより、例えば画素121aに入射した光は、その入射角に依存して、第1の光電変換部123aと第2の光電変換部124aとに分離して受光される(第1の光電変換部123aと第2の光電変換部124aは、互いに異なる入射角で入射する光を受光する)。光の入射角は、その光が結像光学系101aにおける瞳のいずれの位置を通過したかにより決定される。このため、結像光学系101aの瞳は2つの光電変換部により2つの部分瞳に分割され、一つの画素内の2つの光電変換部は互いに異なる視点(瞳の位置)から被写体空間を観察した情報を取得する。なお本実施例において、瞳の分割方向は水平方向であるが、これに限定されるものではなく、垂直方向や斜め方向などの他の方向であってもよい。
撮像素子101bは、第1の光電変換部123で取得された信号(第2の撮像画像、A画像)と、この信号(A画像)と第2の光電変換部124で取得された信号(第3の撮像画像、B画像)との加算信号(第1の撮像画像、A+B画像)を出力する。A画像およびA+B画像は、画像処理部102に出力される。画像処理部(画像処理装置)102は、情報取得部(取得手段)102aおよび画像生成部(生成手段)102bを有し、本実施例の画像処理方法を実行する。この際、画像処理部102は、記憶部(記憶手段)103に記憶された係数データを用いるが、この処理の詳細に関しては後述する。これにより、画像処理部102は、B画像を推定し、A画像と推定B画像とにより位相差情報を取得することができる。システムコントローラ106は、画像処理部102により取得した位相差情報に基づいて、撮像部101の合焦位置を制御する。
ユーザからレリーズの指示が出された場合、撮像部101はそのときの合焦位置に対して撮像を実行し、得られたA画像とA+B画像とが記録媒体105に保存される。ユーザから撮像画像の表示に関する指示が出された場合、システムコントローラ106は、記録媒体105に保存されたデータを読み出し、そのデータを表示部104に表示する。この際、画像処理部102は、ユーザにより指定された条件に応じて、表示部104に表示する画像を生成する。撮像時と同じ合焦位置が指定された場合、表示部104はA+B画像をそのまま表示する。また、撮像時と異なる合焦位置が指定された場合、画像処理部102はリフォーカス画像を生成する。リフォーカス画像は、A+B画像とA画像とに基づいて、本実施例の画像処理方法を用いてB画像を推定し、A画像と推定B画像とを空間的にシフトして合成することで得られる。以上の一連の制御は、システムコントローラ106により行われる。
次に、図5および図6を参照して、画像処理部102で実行される画像推定処理(B画像の推定処理)に関して説明する。B画像の推定処理の際に、画像処理部102は、事前に学習された係数データを用いるが、この学習に関する詳細については後述する。図5は、B画像の推定処理に関するフローチャートである。図6は、B画像の推定処理の説明図である。図5の各ステップは、システムコントローラ106の指令に基づいて画像処理部102により実行される。本実施例において、画像処理部102の情報取得部102aは図5のステップS101乃至ステップS104を実行し、画像生成部102bはステップS105乃至ステップS108を実行する。
まず、ステップS101において、画像処理部102は、A+B画像(第1の撮像画像)201とA画像(第2の撮像画像)202とを取得する。A画像202は、結像光学系101aの瞳の一部である部分瞳(第2の瞳)を通過する光束に基づいて被写体空間を撮像して得られた画像である。A+B画像201は、結像光学系101aの瞳(第1の瞳)を通過する光束に基づいて被写体空間を撮像して得られた画像である。本実施例において、第2の瞳は、第1の瞳に含まれ、第1の瞳の一部である。
続いてステップS102において、画像処理部102は、A+B画像201の輝度飽和に基づいて、A+B画像201およびA画像202のそれぞれを2つの領域に分割する。本実施例では、図6に示されるように、画像処理部102は、A+B画像201を第1の領域204と第2の領域211とに分割する。また画像処理部102は、A画像202を第1の領域205と第2の領域212とに分割する。図6において、A+B画像201中の斜線部は、A+B画像201の輝度飽和している輝度飽和領域203を表す。A+B画像201における第1の領域204は、輝度飽和領域203を含むように設定される。なお、輝度飽和している領域が飛び飛びで存在する場合(互いに分離した複数の輝度飽和領域が存在する場合)、第1の領域204も同様に飛び飛びに設定してよく、連続的に分布した領域である必要はない。第2の領域211は、輝度飽和領域203を含まないように設定される。A画像202における第1の領域205および第2の領域212はそれぞれ、第1の領域204および第2の領域211と合致するように設定される。
なお、撮像素子101bがBayer配列のカラーセンサの場合、A+B画像およびA画像はBayer配列のままでよく、または、R、G1、G2、Bの4チャンネルに並び替えた画像でもよい。4チャンネルの画像とした場合、色ごとに飽和領域が異なるため、各色に対して個別に処理してもよい。または、全ての色に対して輝度飽和を含むように第1の領域を設定して、4チャンネル画像を一括で処理してもよい。
続いてステップS103において、画像処理部102は、A+B画像201の第1の領域204から第1の画像206を抽出する。また画像処理部102は、A画像202の第1の領域205から第2の画像207を抽出する。第1の画像206はA+B画像201の部分領域であり、第2の画像207はA画像202の部分領域である。そして画像処理部102は、第1の画像206および第2の画像207に基づいて入力画像を設定する。本実施例において、入力画像は、第1の画像206および第2の画像207である。ただし本実施例は、これに限定されるものではない。例えば、第1の画像206から第2の画像207を減算した画像などを入力画像としてもよい。
続いてステップS104において、画像処理部102は、入力画像に対応する係数データを選択して取得する。係数データは、B画像の一部に相当する第3の画像を推定するための後述のニューラルネットワーク208で用いられる。本実施例において、複数種類の係数データが記憶部103に記憶されており、画像処理部102は記憶部103に記憶された複数種類の係数データから所望の係数データを取得する。ここでは、画像処理部102は、ステップS103にて抽出した第1の画像206と第2の画像207の位置(第1の撮像画像201と第2の撮像画像202のそれぞれにおける第1の画像206と第2の画像207の位置)に基づいて係数データを選択する。なお、第1の画像206と第2の画像207の位置に基づいて係数データを切り替えるのは、結像光学系101aのヴィネッティング(ケラレ)や収差が像高に応じて変化するためである。
ここで、図7を参照して、ヴィネッティングの影響について説明する。図7は、分割瞳と像高とヴィネッティングとの関係を示す図である。図7(A)は、結像光学系101aの光軸上における瞳を示している。図7中の破線は、2つの光電変換部により分割される瞳の分割線を表している。図7(B)は、図7(A)の場合とは異なる像高における瞳を示している。図7(A)では2つの分割瞳の光量は均一だが、図7(B)ではヴィネッティングにより両者の光量比に偏りが生じている。このため、図7(A)と図7(B)とを比較すると、輝度飽和したA+B画像とA画像とから同一の係数データを用いて正確なB画像を推定することは困難であると分かる。図7(C)は、図7(B)と同一像高(光軸に垂直な平面内で光軸から同一の距離の位置)でアジムス(光軸に垂直な平面内で光軸から外周へ向かう方位角)が異なる場合である。この際も部分瞳の光量比が変化する。また、収差に関しても同様に像高とアジムスによって、2つの部分瞳の間で関係が変化する。このため係数データは、第1の画像206および第2の画像207の像高とアジムスとに基づいて選択(決定)されることが好ましい。
なお、結像光学系101aのヴィネッティングが無視できる場合(望遠レンズ)や、像高による収差変化が無視できる場合(小絞り)には、撮像画像全体に対して同一の係数データを用いてもよい。また、図7では結像光学系101aの瞳が破線で二つに分割され、分割瞳が互いに交わらない場合を示したが、本実施例はこれに限定されるものではない。分割瞳が一部の領域で互いに重なり合っていてもよい(重なった領域では分割瞳同士で光量を分け合う)。また、A画像とB画像との光量比の幾つかのパターン(10:1、8:1、…、1:1、…、1:10のような)に対して、それぞれ対応する係数データを記憶部103に複数記憶しておいてもよい。また画像処理部102は、第1の画像206および第2の画像207における結像光学系101aのヴィネッティングに関する情報を取得し、ヴィネッティングに関する情報に基づいて該当する光量比の係数データを選択するように構成することもできる。
続いて、図5のステップS105において、画像処理部102は、入力画像(第1の画像206および第2の画像207)から第3の画像209を生成する。第3の画像209は、結像光学系101aの第3の瞳を通過した光束に基づいて被写体空間を撮像した画像(B画像)の部分領域に相当する画像である。第3の瞳は、第1の瞳の一部であって、第2の瞳とは異なる。本実施例において、第3の瞳は第1の瞳から第2の瞳を除いた成分であり、第2の瞳と第3の瞳との和で第1の瞳が表される。画像処理部102は、入力層と出力層との間に複数の中間層を有するニューラルネットワーク208を用いて、第3の画像209を生成する。本実施例では、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)が用いられる。ただし本実施例は、これに限定されるものではなく、GAN(Generative Adversarial Network)などの他のニューラルネットワークを用いてもよい。
ここで、図1を参照して、CNNにより第3の画像209を生成する工程について詳述する。図1は、画像生成のネットワーク構造を示す図である。本実施例において、入力画像221は、第1の画像206と第2の画像207とがチャンネル方向にスタックされた画像である。第1の画像206と第2の画像207のそれぞれが複数のカラーチャンネルを有する場合、それらのチャンネル数の2倍のチャンネル数を持つ画像となる。
CNNは複数の層構造になっており、各層で学習された係数データを用いた線型変換と非線型変換が実行される。線型変換は、入力されたデータとフィルタの畳み込み、及びバイアス(図1中のbias)との和で表現される。各層におけるフィルタおよびバイアスの値は、係数データにより決定される。非線形変換は、活性化関数(Activation Function)と呼ばれる非線型関数による変換である(図1中のAF)。活性化関数の例としては、シグモイド関数やハイパボリックタンジェント関数などがある。本実施例では、活性化関数として、以下の式(1)で表されるReLU(Rectified Linear Unit)が用いられる。
式(1)において、maxは、引数のうち最大値を出力するMAX関数を表す。
入力層に入力された入力画像221は、第1畳み込み層で複数のフィルタ222のそれぞれとのコンボリューションと、バイアスとの和を取られる。フィルタ222それぞれのチャンネル数は、入力画像221と一致し、入力画像221のチャンネル数が2以上の場合には3次元フィルタとなる(3次元目がチャンネル数を表す)。コンボリューションと和の結果は、活性化関数により非線形変換を施され、第1特徴マップ223が第1中間層に出力される。
次に、第2畳み込み層へ第1特徴マップ223が入力され、前述と同様に、複数のフィルタ224それぞれとのコンボリューションと、バイアスとの和が取られる。その結果を非線形変換し、以下同様に畳み込み層の数だけ繰り返す。最後は、第N−1中間層の第N−1特徴マップ231を第N畳み込み層へ入力し、第3の画像209を得る。ここで、Nは3以上の整数である。第N層のフィルタ232の数は、第3の画像209のチャンネル数と一致する。また、第3の画像209を生成する最後の畳み込み層では、非線形変換を実行しなくてよい。図1において、第3の画像209は、入力画像221より画像サイズが小さくなっている。これは、畳み込み層において、入力画像221(または特徴マップ)のデータが存在する領域のみでコンボリューションを実行しているためである。入力画像221(または特徴マップ)の周囲をゼロなどで埋めることや逆畳み込み層を利用することにより、画像サイズを不変にすることが可能である。
続いて、図5のステップS106において、画像処理部102は、所定の領域に対して第3の画像209を生成し終えたか否かを判定する。第3の画像209の生成が完了していない場合、ステップS103へ戻り、画像処理部102は所定の領域から新たに第1の画像206および第2の画像207を抽出する。一方、第3の画像の生成が完了している場合、ステップS107へ進む。リフォーカス画像などを生成する場合、撮像画像全体のB画像が必要になるため、輝度飽和領域203の全てに対して、第3の画像209を生成する必要がある。焦点検出が目的の場合、指定されたフォーカスポイントの近傍のみで第3の画像209を生成すればよい。所定の領域の全てに対して第3の画像209を生成した場合、図6に示されるように、B画像(推定B画像)における第1の領域210が生成される。
続いてステップS107において、画像処理部102は、A+B画像201の第2の領域211とA画像202の第2の領域212との差分に基づいて、第4の画像213を生成する。すなわち画像処理部102は、第2の領域211から第2の領域212を減算することにより、B画像における第2の領域に相当する第4の画像213を取得する。A+B画像201の第2の領域211には輝度飽和が存在しないため、画像処理部102は、減算処理によりB画像を求めることができる。輝度飽和が存在する領域のみをニューラルネットワーク208を用いて推定することにより、演算負荷を軽減することができる。なお、ステップS107は、ステップS102とステップS108との間であれば、いつ実行しても構わない。
続いてステップS108において、画像処理部102は、第3の画像209(第1の領域210)と第4の画像213(第2の領域)とを合成することにより、第5の画像214を生成する。第5の画像214は、推定B画像である。
なお、ステップS107では、第2の領域211、212に関わらず、A+B画像201およびA画像202の全体に渡って差分をとってもよい。輝度飽和している領域は正しくB画像が求まらないが、その領域の信号を第1の領域210で置換することにより推定B画像(第5の画像214)を取得することができる。
以上の処理により、A+B画像に輝度飽和がある場合でも、高精度にB画像を推定することができる。A画像と推定B画像とを用いることにより、位相差AFによる焦点検出、視差によるデプスマップの推定、および、リフォーカスなどが実行可能となる。
次に、図8を参照して、係数データの学習に関して説明する。図8は、係数データの学習に関するフローチャートである。本実施例において、学習は撮像装置100以外の画像処理装置で事前に実行され、その結果(複数の係数データ)が記憶部103に記憶されている。ただし本実施例は、これに限定されるものではなく、撮像装置100内に学習を実行する部位が存在していてもよい。
まず、ステップS201において、画像処理装置は、複数の学習ペアを取得する。学習ペアとは、既知のA+B画像、A画像、B画像と、そこから抽出された第1の画像、第2の画像、第3の正解画像である。第1の画像および第2の画像の大きさは、図5および図6に示される第3の画像の生成処理と同じである。第3の正解画像は、第3の画像と同じサイズである。A+B画像、A画像、B画像は、実際の被写体を実写した画像でもよいし、CG(コンピュータ・グラフィクス)を用いた画像でもよい。学習ペアは、実際にB像の推定を行う画像の撮像系(本実施例では撮像部101)と略同一の構成で撮像された(撮像はCGによるシミュレーションでも可)画像から抽出することが好ましい。また、同一の係数データの算出に用いる学習ペアは、全て略同一のヴィネッティングや収差になっていることが好ましい。A+B画像が輝度飽和している場合でのB画像の推定を行うため、学習ペアには必ず輝度飽和した第1の画像が含まれていなければならない。
続いてステップS202において、画像処理装置は、複数の学習ペアから係数データを生成する。学習の際には、ステップS105の第3の画像の生成と同じネットワーク構造を用いる。本実施例では、図1に示されるネットワーク構造に対して第1の画像および第2の画像を入力し、その出力結果(推定された第3の画像)と第3の正解画像との誤差を算出する。この誤差が最小となるように、例えば誤差逆伝播法(Backpropagation)などを用いて、各層で用いるフィルタの係数とバイアス(係数データ)を更新、最適化する。フィルタの係数とバイアスの初期値はそれぞれ任意の値を用いることができ、例えば乱数から決定される。または、各層ごとに初期値を事前学習するAuto Encoderなどのプレトレーニングを行ってもよい。
学習ペアを全てネットワーク構造へ入力し、それら全ての情報を使って係数データを更新する手法をバッチ学習と呼ぶ。ただし、この学習方法は学習ペアの数が増えるにつれて、演算負荷が膨大になる。逆に、係数データの更新に1つの学習ペアのみを使用し、更新ごとに異なる学習ペアを使用する学習手法をオンライン学習と呼ぶ。この手法は、学習ペアが増えても計算量が増大しない利点があるが、その代わりに1つの学習ペアに存在するノイズの影響を大きく受ける。このため、これら2つの手法の中間に位置するミニバッチ法を用いて学習することが好ましい。ミニバッチ法は、全学習ペアの中から少数を抽出し、それらを用いて係数データを更新する。次の更新では、異なる小数の学習ペアを抽出して使用する。これを繰り返すことにより、バッチ学習とオンライン学習の欠点を小さくすることができ、デプスの推定精度が向上しやすくなる。
続いてステップS203において、画像処理装置は、学習された係数データを出力する。様々な瞳の大きさ、またはヴィネッティングや収差に対して、同様の学習を繰り返すことにより、複数の係数データを取得することができる。本実施例において、係数データは記憶部103に記憶される。
次に、本発明の効果を高めるために好ましい条件に関して説明する。図5のステップS102において、A+B像とA像とが共に全て輝度飽和している領域を第3の領域とし、異なる処理を実行することが好ましい。ステップS105において、輝度飽和していない第2の画像(A像の部分領域)または第1の画像(A+B画像の部分領域)の輝度飽和していない色をヒントとして、第1の画像の輝度飽和領域における第3の画像を推定する。このため、入力画像が全て輝度飽和している場合、該当領域には第3の画像を推定するヒントが存在しない。したがって、図1のネットワークでは第3の画像を高精度に推定することができない。また、仮にB画像を推定することができたとしても、A画像が輝度飽和しているため、焦点検出などを行うことはできない。この場合、演算負荷の低減として、第3の領域では輝度飽和値で第3の画像を生成することが好ましい。または、CNNなどによるインペインティングを用いて、輝度飽和の周辺から第3の領域の信号(輝度飽和値を超える値を有する)を推定することもできる。この際、A画像から輝度飽和以外の領域も含まれるように部分領域を抽出してインペインティングを行う。A+B画像にも同様にインペインティングを行うことにより、その差分からB画像を推定することができる。
また、第3の画像の推定と同時に第2の画像のデノイジングを行うことが好ましい。A+B画像は、A画像とB画像との和のため、A画像よりも低ノイズである。このため、A+B画像を参照することにより、A画像のデノイジングを行うことができる。この場合、係数データの学習の際、既知の低ノイズのA画像とB画像とを用意する。ここからシミュレーションによりノイズを付与したA画像とB画像を生成し、これらを加算することによりA+B画像を生成する。ニューラルネットワークに入力するデータは、ノイズを付与したA画像とA+B画像各々から第2の画像および第1の画像を抽出して取得する。ニューラルネットワークの出力は、第3の画像とデノイジングされた第2の画像の2枚とし、低ノイズのA画像とB画像とから抽出した第3の正解画像と第2の正解画像とを比較することで誤差を算出する。このようにして学習された係数データを用いることにより、第3の画像の推定と同時にデノイジングされた第2の画像を生成するネットワークを実現することができる。
より好ましくは、ノイズレベルにより係数データを変更する。これによって、より高精度なデノイジングを実現することができる。第1の画像および第2の画像のノイズレベル(ノイズに関する情報)は、撮像時のISO感度などから見積もることができる。また、画像中の平坦部における信号の分散などから推定することもできる。ノイズに関する情報を取得し、複数のノイズレベルそれぞれに対して学習された複数の係数データから、該当する係数データを選択して使用する。
また本実施例では、撮像画像を二つの分割領域(第1の分割領域および第2の分割領域)に分割し、一方を反転することで係数データの量を削減することができる。これに関して、図9を参照して説明する。図9は、各像高とアジムスでの瞳分割の説明図である。図9はA+B画像を示し、×印の像高およびアジムスにおける分割瞳を×印の横に描画している。図9中の破線は瞳の分割線(分割直線)である。図9に示されるように、本実施例では一点鎖線を軸としてA+B画像の上下いずれか一方を反転すると、他方の瞳分割と重なり、線対称になっている。このため、一点鎖線の上下いずれか一方の領域に関して係数データを保持しておけば、他方は画像を反転することで第3の画像(B画像の一部)が推定することができる。
本実施例では水平方向に瞳を分割しているため、対称軸は水平な直線であるが、仮に垂直方向に瞳を分割していると対称軸も垂直な直線になる。これをさらに一般的に表現すると、以下のようになる。分割した瞳の関係が画像全体に対して線対称となる軸は、結像光学系101aの光軸を通過し、かつ光軸上で各分割瞳が線対称になる共通の軸(A画像およびB画像のそれぞれの光軸上における瞳に対して共通する線対称の軸)と平行である。この対称軸を分割線としてA+B画像とA画像とをそれぞれ二つに分割し、一方の分割された領域では抽出された第1の画像および第2の画像を分割線に対して反転して入力画像を取得する。係数データは、同じ像高でアジムスが正負反転した係数データを使用する。生成された第3の画像を反転し直すことで、第1の画像および第2の画像に対応する第3の画像が推定できる。これにより、係数データを全アジムス(−180°〜180°)で保持する必要がなくなり、データ容量を半分にすることができる。
なお、係数データの学習、および第3の画像の生成を行う際に扱う画像は、RAW画像でも現像後の画像でもよい。A+B画像とA画像とが符号化されている場合、復号してから学習および生成を行う。学習に使用した画像と生成の入力画像でガンマ補正の有無や、ガンマ値が異なる場合には、入力画像を処理して学習の画像に合わせることが好ましい。また、A+B画像とA画像(学習の際はB画像も)は、ニューラルネットワークへ入力する前に信号値を規格化しておくことが好ましい。規格化しない場合において学習と生成時にbit数が異なっていると、第3の画像が正しく推定できない。また、bit数に応じてスケールが変化するため、学習時の最適化で収束に影響を及ぼす可能性もある。規格化には、信号が実際に取り得る最大値(輝度飽和値)を用いる。例えばA+B画像が16bitで保存されていたとしても、輝度飽和値は12bitの場合などがあり、この際は12bitの最大値(4095)で規格化しなければ信号の範囲が0〜1にならない。また、規格化の際はオプティカルブラックの値を減算することが好ましい。これにより、実際に画像が取り得る信号の範囲をより0〜1に近づけることができる。具体的には、以下の式(2)に従って規格化することが好ましい。
式(2)において、sはA+B画像(またはA画像もしくはB画像)の信号、sOBはオプティカルブラックの信号値(画像が取り得る信号の最小値)、ssatuは信号の輝度飽和値、snorは規格化された信号を示す。
本実施例によれば、輝度飽和が発生している場合でも高精度に瞳を分割した画像を推定することが可能な画像処理方法、画像処理装置、および、撮像装置を提供することができる。
次に、本発明の実施例2における画像処理システムについて説明する。本実施例では、第3の画像を推定する画像処理装置、撮像画像を取得する撮像装置、および、学習を行うサーバが個別に存在している。
図10および図11を参照して、本実施例における画像処理システムについて説明する。図10は、画像処理システム300のブロック図である。図11は、画像処理システム300の外観図である。図10および図11に示されるように、画像処理システム300は、撮像装置301、画像処理装置302、サーバ306、表示装置309、記録媒体310、および、出力装置311を備えて構成される。
撮像装置301の基本構成は、第3の画像を生成する画像処理部、および撮像部を除いて、図2に示される撮像装置100と同様である。撮像装置301の撮像素子は、図12に示されるように構成されている。図12は、本実施例における撮像素子の構成図である。図12において、破線はマイクロレンズを示す。画素320(a、b以降は省略)のそれぞれには4つの光電変換部321、322、323、324(a、b以降は省略)が設けられ、結像光学系の瞳を2×2の四つに分割している。光電変換部321〜324で取得される画像を、順に、A画像、B画像、C画像、D画像とし、それらの加算結果をABCD画像とする。撮像素子からは撮像画像として、ABCD画像とA画像、C画像、D画像の4画像が出力される。
撮像装置301と画像処理装置302とが接続されると、撮像画像は記憶部303に記憶される。画像処理装置302は、画像生成部304にて撮像画像から推定B画像(第3の画像の集合)を生成する。この際、画像処理装置302は、ネットワーク305を介してサーバ306にアクセスし、生成に用いる係数データを読み出す。係数データは、学習部308で予め学習され、記憶部307に記憶されている。係数データは、複数のレンズ、焦点距離、F値などにより個別に学習されており、複数の係数データが存在する。
画像処理装置302は、入力された撮像画像に合致する条件の係数データを選択して記憶部303に取得し、第3の画像を生成する。生成された推定B画像は、リフォーカス処理などに使用され、処理後の撮像画像が表示装置309、記録媒体310、および、出力装置311の少なくとも一つに出力される。表示装置309は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは、表示装置309を介して、処理途中の画像を確認しながら作業を行うことができる。記録媒体310は、例えば半導体メモリ、ハードディスク、ネットワーク上のサーバなどである。出力装置311は、プリンタなどである。画像処理装置302は、必要に応じて現像処理やその他の画像処理を行う機能を有する。
次に、図13を参照して、画像処理装置302の画像生成部304により実行される画像推定処理(第3の画像(B画像)の生成処理)について説明する。図13は、画像推定処理(B画像の推定処理)に関するフローチャートである。図13の各ステップは、主に、画像処理装置302(画像生成部304)により実行される。
まず、ステップS301において、画像処理装置302は、第1の撮像画像および第2の撮像画像を取得する。本実施例において、第1の撮像画像はABCD画像であり、第2の撮像画像はA画像、C画像、および、D画像の3枚の画像である。続いてステップS302において、画像処理装置302は、第1の画像および第2の画像に基づいて入力画像を取得する。本実施例において、第1の画像はABCD画像から抽出され、第2の画像はA画像、C画像、および、D画像のそれぞれから抽出される。このため、第2の画像は3枚の画像である。本実施例では、第1の画像および第2の画像をチャンネル方向へスタックした4チャンネル画像を入力画像とする。
続いてステップS303において、画像処理装置302は、入力画像に対応する係数データを選択して取得する。続いてステップS304において、画像処理装置302は第3の画像を生成する。本実施例において、第3の画像の生成に用いるネットワークとしては、図1に示される畳み込みニューラルネットワークCNNが用いられる。
続いてステップS305において、画像処理装置302は、所定の領域に対して第3の画像を生成し終えたか否かを判定する。本実施例において、所定の領域は、撮像画像全体である。第3の画像の生成が完了していない場合、ステップS302へ戻り、画像処理装置302は新たな入力画像を取得する。一方、第3の画像の生成が完了している場合、ステップS306へ進む。ステップS306において、画像処理装置302は、生成された複数の第3の画像から推定B画像を生成する。
本実施例において、学習部308による係数データの学習は、実施例1と同様に、図8に示されるフローチャートに従って行われる。レンズ(結像光学系101a)に応じて収差やヴィネッティングが異なるため、レンズの種類ごとに学習ペアを作成し、係数データを学習する。また、撮像条件(焦点距離やF値など)や像高により収差とヴィネッティングの変化が無視できない場合、複数の撮像条件および像高ごとに学習ペアを作成して係数データを学習する。なお本実施例では、第2の撮像画像が3枚の画像である場合の例を挙げているが、逆に第2の撮像画像がA画像1枚で、第3の画像がB画像、C画像、および、D画像それぞれの一部で3枚ある構成としてもよい。
本実施例によれば、輝度飽和が発生している場合でも高精度に瞳を分割した画像を推定することが可能な画像処理システムを提供することができる。
次に、本発明の実施例3における撮像装置について説明する。本実施例の撮像装置は、多眼構成の撮像装置である。図14は、撮像装置400のブロック図である。図15は、撮像装置400の外観図である。
撮像装置400は撮像部401を有し、撮像部401は二つの結像光学系401a、401bを有する。二つの結像光学系401a、401bのそれぞれにより形成された像(被写体像、光学像)は、一つの撮像素子401cで受光される。この際、二つの像は撮像素子401cの異なる領域で受光される。本実施例では、結像光学系401a、401bのそれぞれを介して撮像された画像をそれぞれA画像、B画像とする。撮像素子401cは、A画像とB画像とを加算したA+B画像、および、A画像を出力する。この際、A+B画像に対応する瞳(第1の瞳)は、結像光学系401a、401bのそれぞれの瞳を合算した瞳である。なお、その他の部位に関する説明は、実施例1と同様である。また本実施例では、撮像素子401cは一つであるが、結像光学系401a、401bのそれぞれに対応する二つの撮像素子が配列されていてもよい。この場合、画像処理部402は、二つの撮像素子のそれぞれの出力信号を加算した加算信号を第1の撮像画像として取得する。なお、第3の画像(B画像の一部)の生成と係数データの学習は、実施例1と同様である。
撮像装置400は本実施例の画像処理方法を実行する画像処理部(画像処理装置)402を有し、画像処理部402は情報取得部(取得手段)402aおよび画像生成部(生成手段)402bを有する。また撮像装置400は、記憶部403、表示部404、記録媒体405、および、システムコントローラ406を有する。
本実施例によれば、輝度飽和が発生している場合でも高精度に瞳を分割した画像を推定することが可能な撮像装置を提供することができる。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、輝度飽和が発生している場合でも高精度に瞳を分割した画像を推定することが可能な画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体を提供することができる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
102 画像処理部
102a 情報取得部
102b 画像生成部

Claims (16)

  1. 光学系の第1の瞳を介して被写体空間を撮像することで得られた第1の画像と、前記第1の瞳の一部である第2の瞳を介して前記被写体空間を撮像することで得られた第2の画像と、に基づく入力画像を取得する工程と、
    入力層と出力層の間に複数の中間層を有するニューラルネットワークを用いて、前記光学系の第3の瞳を介して前記被写体空間を撮像することで得られる画像に相当する第3の画像を前記入力画像から生成する工程と、を有し、
    前記第3の瞳は、前記第1の瞳の一部であって前記第2の瞳とは異なることを特徴とする画像処理方法。
  2. 複数の係数データから前記ニューラルネットワークで用いられる係数データを選択する工程を更に有することを特徴とする請求項1に記載の画像処理方法。
  3. 前記第1の画像および前記第2の画像はそれぞれ、互いに異なる瞳を介して前記被写体空間を撮像することでえられた第1の撮像画像および第2の撮像画像の部分領域であり、
    前記係数データを選択する工程において、前記第1の撮影画像における前記第1の画像の位置および前記第2の撮像画像における前記第2の画像の位置に基づいて、前記係数データを選択することを特徴とする請求項2に記載の画像処理方法。
  4. 前記第1の画像および前記第2の画像はそれぞれ、互いに異なる瞳を介して前記被写体空間を撮像して得られた第1の撮像画像および第2の撮像画像の部分領域であり、
    前記係数データを選択する工程において、前記第1の撮像画像および前記第2の撮像画像のそれぞれに関する像高とアジムスとに基づいて、前記係数データを選択することを特徴とする請求項2または3に記載の画像処理方法。
  5. 前記第1の画像および前記第2の画像の撮像に用いた前記光学系のヴィネッティングに関する情報を取得する工程を更に有し、
    前記係数データを選択する工程において、前記ヴィネッティングに関する情報に基づいて、前記係数データを選択することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理方法。
  6. 前記第1の画像および前記第2の画像のそれぞれのノイズに関する情報を取得する工程を更に有し、
    前記係数データを選択する工程において、前記ノイズに関する情報に基づいて、前記係数データを選択することを特徴とする請求項2乃至5のいずれか1項に記載の画像処理方法。
  7. 前記第1の画像に含まれるノイズは、前記第2の画像に含まれるノイズよりも小さく、
    前記第3の画像を生成する工程において、前記ニューラルネットワークを用いて、前記入力画像から前記第3の画像とデノイジングされた前記第2の画像とを生成することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理方法。
  8. 前記第1の瞳は、前記第2の瞳と前記第3の瞳との和であり、
    前記入力画像は、前記第1の画像から第2の画像を減算した画像を含むことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理方法。
  9. 互いに異なる瞳を介して前記被写体空間を撮像して得られた第1の撮像画像および第2の撮像画像のそれぞれから前記第1の画像および前記第2の画像を抽出する工程と、
    前記第1の撮像画像から第2の撮像画像を減算して第4の画像を生成する工程と、
    前記第3の画像と前記第4の画像とを合成して第5の画像を生成する工程と、を更に有し、
    前記第1の瞳は、前記第2の瞳と前記第3の瞳との和であり、
    前記第1の画像および前記第2の画像を抽出する工程において、前記第1の画像は、前記第1の撮像画像において輝度飽和している領域を含むように抽出されることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理方法。
  10. 互いに異なる瞳で前記被写体空間を撮像した第1の撮像画像および第2の撮像画像のそれぞれから前記第1の画像および前記第2の画像を抽出する工程と、
    前記第1の撮像画像および前記第2の撮像画像のそれぞれを分割直線で第1の分割領域と第2の分割領域とに分割する工程と、
    前記第1の撮像画像および前記第2の撮像画像のそれぞれから、前記第1の画像および前記第2の画像を抽出する工程と、を更に有し、
    前記分割直線は、前記光学系の光軸を通過し、かつ第1の撮像画像および第2の撮像画像のそれぞれの光軸上における瞳に対して共通する線対称の軸と平行であり、
    前記入力画像を取得する工程において、前記第1の分割領域または前記第2の分割領域から抽出された前記第1の画像および前記第2の画像を反転して前記入力画像を取得することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理方法。
  11. 光学系の第1の瞳を介して被写体空間を撮像することで得られた第1の画像と、前記第1の瞳の一部である第2の瞳を介して前記被写体空間を撮像することで得られた第2の画像と、に基づく入力画像を取得する取得手段と、
    入力層と出力層の間に複数の中間層を有するニューラルネットワークを用いて、前記光学系の第3の瞳を介して前記被写体空間を撮像することで得られる画像に相当する第3の画像を前記入力画像から生成する生成手段と、を有し、
    前記第3の瞳は、前記第1の瞳の一部であって前記第2の瞳とは異なることを特徴とする画像処理装置。
  12. 前記ニューラルネットワークに用いられる係数データを記憶する記憶手段を更に有することを特徴とする請求項11に記載の画像処理装置。
  13. 光学系により形成された光学像を光電変換する撮像素子と、
    請求項11または12に記載の画像処理装置と、を有することを特徴とする撮像装置。
  14. 前記撮像素子は複数の画素を有し、
    該複数の画素のそれぞれは、互いに異なる入射角で入射する光を受光して第1及び第2の信号を生成する第1及び第2の光電変換部を含み、
    前記撮像素子は、前記第1及び第2の信号を加算した加算信号に対応する第1の撮像画像と、前記第1及び第2の信号の一方の信号に対応する第2の撮像画像と、を出力し、
    前記第1の画像は前記第1の撮像画像の部分領域であり、前記第2の画像は前記第2の撮像画像の部分領域であることを特徴とする請求項13に記載の撮像装置。
  15. 請求項1乃至10のいずれか1項に記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。
  16. 請求項15に記載の画像処理プログラムを記憶していることを特徴とする記憶媒体。
JP2018001551A 2018-01-10 2018-01-10 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体 Active JP7009219B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018001551A JP7009219B2 (ja) 2018-01-10 2018-01-10 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001551A JP7009219B2 (ja) 2018-01-10 2018-01-10 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体

Publications (2)

Publication Number Publication Date
JP2019121972A true JP2019121972A (ja) 2019-07-22
JP7009219B2 JP7009219B2 (ja) 2022-01-25

Family

ID=67308037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001551A Active JP7009219B2 (ja) 2018-01-10 2018-01-10 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体

Country Status (1)

Country Link
JP (1) JP7009219B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022130662A1 (ja) * 2020-12-17 2022-06-23 ソニーグループ株式会社 撮像装置、信号処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235054A (ja) * 2012-05-07 2013-11-21 Canon Inc 焦点検出装置及び撮像装置
JP2014206564A (ja) * 2013-04-10 2014-10-30 キヤノン株式会社 撮像装置及びその制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013235054A (ja) * 2012-05-07 2013-11-21 Canon Inc 焦点検出装置及び撮像装置
JP2014206564A (ja) * 2013-04-10 2014-10-30 キヤノン株式会社 撮像装置及びその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022130662A1 (ja) * 2020-12-17 2022-06-23 ソニーグループ株式会社 撮像装置、信号処理方法

Also Published As

Publication number Publication date
JP7009219B2 (ja) 2022-01-25

Similar Documents

Publication Publication Date Title
US11195257B2 (en) Image processing method, image processing apparatus, imaging apparatus, lens apparatus, storage medium, and image processing system
JP6053347B2 (ja) 撮像装置およびその制御方法ならびにプログラム
JP2007304525A (ja) 画像入力装置および電子機器および画像入力方法
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
US20210392313A1 (en) Image processing apparatus, image processing method, storage medium, manufacturing method of learned model, and image processing system
JP7234057B2 (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、記憶媒体、および、画像処理システム
JP2016061609A (ja) 距離計測装置、撮像装置、および距離計測方法
US11308592B2 (en) Image processing method, image processing apparatus, imaging apparatus, and storage medium, that correct a captured image using a neutral network
US20220368877A1 (en) Image processing method, image processing apparatus, storage medium, manufacturing method of learned model, and image processing system
KR20160000422A (ko) 촬상장치, 제어장치, 제어 방법 및 기억매체
JP2013061850A (ja) ノイズ低減のための画像処理装置及び画像処理方法
US10084978B2 (en) Image capturing apparatus and image processing apparatus
JP7009219B2 (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
JP7191588B2 (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、および、記憶媒体
JP7547297B2 (ja) 推定装置、方法及びプログラム
JP2018133064A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP2018081378A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP2018088587A (ja) 画像処理方法および画像処理装置
JP2020061129A (ja) 画像処理方法、画像処理装置、撮像装置、画像処理システム、プログラム、および、記憶媒体
CN110958382A (zh) 图像处理方法、图像处理装置、成像装置和存储介质
JP7129229B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP6532411B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
US11909942B2 (en) Parallax detecting apparatus, image capturing apparatus, parallax detecting method, and storage medium
US20230128856A1 (en) Image processing method, storage medium, image processing apparatus, manufacturing method of trained model, and image processing system
JP2018121273A (ja) 映像撮影装置および映像撮影方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220112