JP2019208214A - Image processing apparatus, image processing method, program, and imaging apparatus - Google Patents
Image processing apparatus, image processing method, program, and imaging apparatus Download PDFInfo
- Publication number
- JP2019208214A JP2019208214A JP2019113888A JP2019113888A JP2019208214A JP 2019208214 A JP2019208214 A JP 2019208214A JP 2019113888 A JP2019113888 A JP 2019113888A JP 2019113888 A JP2019113888 A JP 2019113888A JP 2019208214 A JP2019208214 A JP 2019208214A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- divided
- pixel
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は画像処理装置に関し、特にリフォーカス可能なライトフィールドデータに基づく画像を処理する画像処理装置および当該画像処理装置を適用した撮像装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that processes an image based on refocusable light field data and an imaging apparatus to which the image processing apparatus is applied.
近年、撮影した被写体画像の特定の領域に対して画像処理を行う機能を有するデジタルカメラ等の撮像装置が知られている。例えば、特許文献1では、ユーザーが指定した色情報を有する領域に対して同様にユーザーが指定した色に変換する色変換処理を行うことが可能な技術が開示されている。 2. Description of the Related Art In recent years, imaging devices such as digital cameras having a function of performing image processing on a specific area of a photographed subject image are known. For example, Patent Document 1 discloses a technique capable of performing a color conversion process in which an area having color information specified by a user is similarly converted to a color specified by the user.
ところで、1回の撮影で被写界の異なる距離にピントの合った画像を得ることのできる技術が知られている。特許文献2では結像光学系の射出瞳の異なる領域を通過した光束を撮像素子によって撮像して得られる撮像信号(ライトフィールドデータ)を合成して任意の焦点面において取得可能な画像データ(リフォーカス画像)を1回の撮影で生成する技術が開示されている。 By the way, there is known a technique capable of obtaining images in focus at different distances in the field of field by one shooting. In Patent Literature 2, image data (re-field data) that can be acquired at an arbitrary focal plane by synthesizing an imaging signal (light field data) obtained by imaging a light beam that has passed through different areas of the exit pupil of the imaging optical system with an imaging device. A technique for generating a (focus image) by one shooting is disclosed.
特許文献1に記載の撮像装置において、変換対象の色を有する被写体領域にボケが発生している場合、ボケ領域で発生する混色に起因して意図する色変換処理結果を得られない場合がある。このような問題は前述の色変換処理に限らず、被写体固有の情報を用いる画像処理や被写体領域毎に異なる画像処理を適用するような場面においても同様の問題が発生する。 In the imaging apparatus described in Patent Literature 1, when blur occurs in a subject area having a color to be converted, an intended color conversion processing result may not be obtained due to color mixing that occurs in the blur area. . Such a problem is not limited to the above-described color conversion process, and the same problem occurs in a scene where image processing using information unique to a subject or different image processing is applied to each subject region.
一方、特許文献2に記載の撮像装置において、同一のシーンからピント位置を変えた複数のリフォーカス画像を生成し、それらに一律に同様の画像処理を行う場合は、合成の度に画像処理を実施することになり、処理が煩雑になってしまう。 On the other hand, in the imaging apparatus described in Patent Document 2, when generating a plurality of refocused images in which the focus position is changed from the same scene and performing the same image processing on them uniformly, the image processing is performed every time the image is combined. It will be carried out, and the processing becomes complicated.
そこで、本発明の目的は、例えばリフォーカス画像などの画像に画像処理を行う場合において、ボケに起因する画像処理による画像の誤補正を回避し、かつ効率よく画像処理を行うことを可能にする画像処理装置を提供することである。 Accordingly, an object of the present invention is to avoid erroneous correction of an image due to image processing caused by blur and to perform image processing efficiently when image processing is performed on an image such as a refocus image. An image processing apparatus is provided.
上記課題を解決する為に本発明によれば、画像処理装置は、被写体の光学像を形成する撮像光学系の射出瞳の瞳分割機能を有する撮像手段で生成されたライトフィールドデータを取得する取得手段と、所定の画像処理を画像データに行う画像処理手段と、所定の画像処理が行われる画像データを、ライトフィールドデータを用いて生成する画像生成手段と、画像処理手段を制御して、生成された画像データに所定の画像処理を行うことで、所定の画像処理に従って補正されたライトフィールドデータを生成する制御手段を備える。 In order to solve the above problems, according to the present invention, an image processing apparatus acquires light field data generated by an imaging unit having a pupil division function of an exit pupil of an imaging optical system that forms an optical image of a subject. Means, image processing means for performing predetermined image processing on image data, image generation means for generating image data to be subjected to predetermined image processing using light field data, and controlling the image processing means to generate Control means for generating light field data corrected according to the predetermined image processing by performing predetermined image processing on the processed image data.
本発明によれば、リフォーカス画像の画像処理において、当該画像処理に対応してライトフィールドデータの補正を行うことが可能となり、ボケに起因した各種画像処理による画像の誤補正を防ぐことを可能とする画像処理装置を提供できる。 According to the present invention, in the image processing of the refocus image, it is possible to correct the light field data corresponding to the image processing, and it is possible to prevent erroneous correction of the image due to various image processing caused by blurring. An image processing apparatus can be provided.
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図1から図6を参照して、本発明の第1の実施例を説明する。 A first embodiment of the present invention will be described with reference to FIGS.
図1は本発明の第1の実施例に係わる画像処理装置を適用した撮像装置100の構成を示すブロック図である。同図において、101は撮像光学系であり、入射する被写体からの光を不図示の複数のレンズ群および絞りを介して撮像素子102に導く。撮像光学系101を通過した光束は撮像素子102上に結像して光学像を形成する。撮像素子102はR(赤)G(緑)B(青)のカラーフィルターを備える画素がベイヤー配列に従って配置された画素配列を有し、一つの画素には少なくとも一対の光電変換部が構成されている。撮像素子102および画素の詳細については後述する。
FIG. 1 is a block diagram showing a configuration of an
A/D変換部103は、撮像素子102から出力されたアナログ画像信号をデジタル信号に変換する。瞳分割画像生成部104は、A/D変換部103から出力される信号から一対の瞳分割画像データを生成する。瞳分割画像生成部104の詳細な動作についても後述する。システム制御部105は、撮影や記録などの動作などにおいて撮像装置内部の状態に従って撮像装置全体の制御を行う。D/A変換部106は、デジタル画像信号をアナログ信号に変換し、表示部107に出力する。
The A /
表示部107はLCD等の液晶ディスプレイであり、EVFや記録媒体111に記憶された画像データおよび各種設定画面などを表示する。画像合成部108は、複数の画像から合成画像を生成する。画像合成部108の詳細な動作については後述する。色変換部109は、画像中の所定の色を他の所定の色に変換する色変換処理を行う。色変換部109の詳細については後述する。
The
メモリ110はカメラ内部の動作制御プログラム、画像、および演算データや各種パラメータを記憶するメモリであり、各種画像処理に用いるパラメータやルックアップテーブルの情報、およびシェーディング特性等の情報を予め記憶している。記録媒体111はSDカードやCompactFlashなどの記録媒体であり、撮影画像データを記録する。
The
次に、図2〜図4を用いて本実施例における撮像素子102の構成を説明する。図2は撮像素子102の受光領域の一部を拡大した図である。撮像素子102の受光領域には、図2に示すようにRGBのいずれかのカラーフィルター200を有する画素がベイヤー配列に従って配置されている。
Next, the configuration of the
次に図3を用いて撮像素子102の画素の構成について説明する。
Next, the pixel configuration of the
図3(a)は、撮像素子102の画素の一つを上面から観察した図である。図3(b)は、図3(a)に示す線分P−P´における画素の断面図である。なお図中において同様の部分には同一の符号を付して示す。
FIG. 3A is a view of one of the pixels of the
図3において、301は瞳分割機能を有するマイクロレンズであり、撮像光学系から出力された光束を集光する。カラーフィルター200は、マイクロレンズ301を通過した光束のうち、特定の波長の光のみを透過する。302、303、304、305は光電変換部であり、それぞれ同じマイクロレンズを介して受光した光束を光電変換し、個別に光電変換信号を出力する(瞳分割)ことが可能である。なお、本実施例において単に画素と記載した場合は、撮像素子102の一つのマイクロレンズ下に構成される、上述の要素301〜305および200の集合単位である単位画素を意味するものとする。また、画素における光電変換部302の位置に対応する光電変換部を分割画素A、303の位置に対応する光電変換部を分割画素B、304の位置に対応する光電変換部を分割画素C、305の位置に対応する光電変換部を分割画素Dとそれぞれ記す。
In FIG. 3,
また、本実施例では一つの画素に対して4つの光電変換部を構成する例について説明を行うが、一つの画素に構成される光電変換部の数はこれに限定されない。一つの画素に構成される光電変換部が撮像光学系の射出瞳のそれぞれ異なる領域を通過した光束を独立して受光可能な構成であればよい。 In this embodiment, an example in which four photoelectric conversion units are configured for one pixel will be described. However, the number of photoelectric conversion units configured in one pixel is not limited thereto. The photoelectric conversion unit configured in one pixel may be configured to be able to independently receive light beams that have passed through different regions of the exit pupil of the imaging optical system.
また、本実施例では撮像素子102の画素配列としてRGBのベイヤー配列による構成について説明をしたが、カラーフィルターの分光感度特性はこれに限定されるものではない。また、本実施例では一つのマイクロレンズに対して一つのカラーフィルターを構成する例を示したが、マイクロレンズ下の各分割画素にそれぞれ異なる分光感度特性を有するカラーフィルターを構成しても良い。
In this embodiment, the configuration using the RGB Bayer array as the pixel array of the
次に瞳分割画像生成部104による画像生成の詳細な動作について説明する。
瞳分割像生成部104は分割画素A、分割画素B、分割画素C、分割画素Dで得られる信号(ライトフィールドデータと称す)をそれぞれ取得し、分割画素A群によって得られる信号から第1の像信号(瞳分割画像データ)を、分割画素B群によって得られる信号から第2の像信号を生成する。また、分割画素C群によって得られる信号から第3の像信号を、分割画素D群によって得られる信号から第4の像信号をそれぞれ生成する。
Next, a detailed operation of image generation by the pupil division
The pupil divided
図4は撮像光学系101の射出瞳と分割画素の関係を説明するための図である。なお、同図において、図3と同様の部分は同じ符号を付して示す。また、説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。従って、後述の説明は分割画素Aおよび分割画素Bに示す位置関係と同じ関係性である分割画素の組み合わせにも適用可能である。
FIG. 4 is a diagram for explaining the relationship between the exit pupil of the imaging
本実施例においては、撮像光学系の射出瞳401から出力された光はマイクロレンズ301により瞳分割され、分割画素A群302は領域402を、分割画素B群303は領域403を通過した光束をそれぞれ受光するように設計されている。したがって、第1の像信号および第2の像信号は瞳分割像方向に視差を有する一対の瞳分割画像データとなる。一対の瞳分割画像は、それぞれ撮像光学系101のF値に対して2段分深い被写界深度を有する。
In this embodiment, the light output from the
次に色変換部109の詳細な動作について説明する。
色変換部109は入力画像に対し、画素位置毎に足りない色情報を周囲の画素から補間し、各画素位置に対応する色情報Pix(R、G、B)を生成する。色変換部109はルックアップテーブルを用いて各画素位置に対応する色情報Pix(R、G、B)を、撮像装置100の撮影モードに従って予め決定される所定の変換目標色Pix(R’、G’、B’)へと変換する。ルックアップテーブルを用いた色変換処理は、ここでは詳細な説明は割愛するが、例えば特許文献1に開示されている技術を用いることで実現可能である。
Next, a detailed operation of the
The
なお、特許文献1に開示されている技術はYUV空間での色変換処理であるが、色変換後のYUV空間における画素値に対して行列演算による逆変換処理を行うことでRGB空間へと戻すことは容易である。色変換部109は前記ルックアップテーブルを用いた色変換処理を画像全体に対して実施し、画像中の変換対象の色を変換目標の色へと補正する。なお、本実施例では撮影モードに応じて変換対象の色および変換目標の色を決定する場合について説明したが、ユーザーが直接変換対象の色および変換目標の色を図示しない操作部により指定できるようにしてもよい。
The technique disclosed in Patent Document 1 is color conversion processing in the YUV space, but the pixel value in the YUV space after color conversion is returned to the RGB space by performing inverse conversion processing by matrix operation. It is easy. The
また、本実施例では画像全体に対して画像処理を行う例について説明したが、本発明はこれに限定されるものではない。例えば、特定の被写体を対象として画像処理を行うような撮影モードが設定されている場合には、画像解析等により画像中の特定の被写体の存在する領域を推定し、画像処理対象領域を限定してもよい。 In the present embodiment, an example in which image processing is performed on the entire image has been described, but the present invention is not limited to this. For example, when a shooting mode that performs image processing on a specific subject is set, the region where the specific subject exists in the image is estimated by image analysis or the like, and the image processing target region is limited. May be.
次に図5を用いて画像合成部108の詳細な動作について説明する。画像合成部108は瞳分割画像を合成し、任意の焦点面(仮想撮像面)において取得可能な画像データ(リフォーカス画像)を生成する。図5は画像合成処理の動作を説明するための図である。なお、ここでは説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。以降の説明は、分割画素Aおよび分割画素Bに示す位置関係と同一の関係性を有する分割画素の組み合わせにも適用可能である。
Next, the detailed operation of the
図5(a)は、撮像素子102のある領域における入射光と焦点面の関係を示している。図4で説明した射出瞳領域402および403を通過した光束はマイクロレンズにより瞳分割され、分割画素502、504、506、508、510では射出瞳領域403を通過した光束を受光する。また、分割画素501、503、505,507、509では射出瞳領域402を通過した光束をそれぞれ受光する。
FIG. 5A shows the relationship between the incident light and the focal plane in a certain area of the
図5(b)は、図5(a)においてそれぞれの分割画素が受光する光束を模式的に示した図である。同一のマイクロレンズ下の分割画素501および502、503および504、505および506、507および508、509および510をそれぞれ加算することによって同一のタイプの線分で示される結像画像の画素信号を得ることが出来る。
FIG. 5B is a diagram schematically showing the light flux received by each of the divided pixels in FIG. By adding the divided
図5(d)は射出瞳領域403を通過した光束により得られた信号群を1画素分シフトして加算する例を示している。それぞれの分割画素は図5(a)で示した光線情報を有しているため、シフト加算によって得られる信号は、異なるタイプの線分で示される結像画像の画素信号が得られる。これは図5(c)に示すように仮想撮像面1で取得できる信号と等価であるものとして扱うことが出来る。
FIG. 5D shows an example in which the signal group obtained by the light flux that has passed through the
図5(f)は射出瞳領域403を通過した光束により得られた画素信号群を−1画素分シフトして加算する例であり、仮想撮像面2で取得できる信号と等価であるものとして扱うことが出来る。
FIG. 5F is an example in which the pixel signal group obtained by the light beam that has passed through the
本実施例では、画像合成処理部108はシフト量0での加算、即ち同一マイクロレンズ下に存在する一対の分割画素の画素値を加算することにより従来の撮像装置による撮影データと等価な合成画像を生成する。以下に本実施例における合成画像ImgABを生成する式を示す。下記の式1においてImgAおよびImgBは入力される一対の画像を、xおよびyは水平方向および垂直方向の座標を示している。
ImgAB(x,y) =ImgA(x,y) +ImgB(x,y)・・・式1
なお、ここで示した式は一例にすぎず、構成される分割画素の個数や特性に応じて適宜式を変形させても良い。
In the present embodiment, the image
ImgAB (x, y) = ImgA (x, y) + ImgB (x, y) Equation 1
The formula shown here is only an example, and the formula may be modified as appropriate according to the number and characteristics of the divided pixels to be configured.
次に、図6を参照して、本実施例に係わる画像処理装置を適用した撮像装置100の撮影動作を説明する。図6は、本実施例に係わる画像処理装置を適用した撮像装置100の撮影動作のフローチャートを示す図である。本動作は、システム制御部105がメモリ110に格納されている動作制御プログラムをロードして実行することで撮像装置100の各部を制御して実現される。
Next, with reference to FIG. 6, the photographing operation of the
撮像装置100は不図示の電源スイッチがONの間(ステップS600での「Y」)、色変換撮影処理を繰り返す。色変換撮影が開始されると(ステップS600での「Y」)、まずステップS601で撮像素子102およびA/D変換部103により生成された被写体の像信号を取得する。次に、ステップS602では、瞳分割画像生成部104が、分割画素A群および分割画素B群それぞれの像信号から一対の瞳分割画像データを生成する。ステップS602で生成された瞳分割画像データは順次色変換処理部109へと入力される。
The
次に、ステップS603において、ステップS602で出力される第1の瞳分割画像データに対して、色変換処理部109により撮影モードに応じて決定される変換対象の色と変換目標の色に基づいた色変換処理が行われる。次に、ステップS604において、ステップS602で出力される第2の瞳分割画像データに対して、色変換処理部109により撮影モードに応じて決定される変換対象の色と変換目標の色に基づいた色変換処理が行われる。
Next, in step S603, the first pupil division image data output in step S602 is based on the conversion target color and the conversion target color determined by the color
次に、ステップS605において、ステップS602で出力される第3の瞳分割画像データに対して、色変換処理部109により撮影モードに応じて決定される変換対象の色と変換目標の色に基づいた色変換処理が行われる。ステップS606においては、ステップS602で出力される第4の瞳分割画像データに対して、色変換処理部109により撮影モードに応じて決定される変換対象の色と変換目標の色に基づいた色変換処理が行われる。
Next, in step S605, the third pupil divided image data output in step S602 is based on the conversion target color and the conversion target color determined by the color
次に、ステップS607では不図示のシャッターボタンが押下されているかどうかを判定し、シャッターボタンが押されている場合はステップS608へと進み、撮影画像の記録処理を行う。シャッターボタンが押されていない場合は、ステップS609の表示処理へと進む。 Next, in step S607, it is determined whether or not a shutter button (not shown) has been pressed. If the shutter button has been pressed, the process proceeds to step S608 to record a captured image. If the shutter button has not been pressed, the process proceeds to the display process in step S609.
ステップS608では、色変換処理が行われた第1の瞳分割画像データ及び第2の瞳分割画像データに含まれる分割画素単位のデータ(ライトフィールドデータ)を記録媒体111に保存し、ステップS609の表示処理へと進む。ステップS609で画像合成処理部108による画像合成処理が行われ、出力された合成画像を表示部107に表示する。ステップS609の表示処理が終るとステップS600に戻り、電源スイッチがONであればステップS601で次フレームの像信号取得を行い、前述した一連の動作を繰り返し実行する。
In step S608, the divided pixel unit data (light field data) included in the first pupil divided image data and the second pupil divided image data on which the color conversion processing has been performed is stored in the
なお、本実施例では変換対象の色を変換目標の色に変換する色変換処理を画像処理の例として用いたが、本発明の範囲はこれに限定されるものではなく、被写体固有の情報を用いて画像処理を行う画像処理であれば適用可能である。 In this embodiment, the color conversion processing for converting the color to be converted into the conversion target color is used as an example of the image processing. However, the scope of the present invention is not limited to this, and information specific to the subject is used. Any image processing can be applied as long as it uses the image processing.
また、本実施例では分割画素単位の補正データをそのまま記録媒体に記録する例について説明したが、色変換後の瞳分割画像を画像合成部108で合成し、合成画像を記録するようにしても良い。
In this embodiment, the correction data for each divided pixel is recorded on the recording medium as it is. However, the pupil divided image after color conversion is synthesized by the
また、本実施例では一対の瞳分割画像に対して一つの色変換手段を用いて順次処理する例について説明したが、撮像装置100に対して第2の色変換手段を構成し、色変換処理を並列に進めるようにすれば色変換にかかる処理時間短縮が可能となる。また、瞳分割画像の数に応じて更に多数の色変換手段を構成しても良い。
In this embodiment, an example in which a pair of pupil-divided images is sequentially processed using a single color conversion unit has been described. However, a second color conversion unit is configured for the
以上説明したように、射出瞳上の異なる領域を通過した光束群を受光して生成される瞳分割画像データに対してそれぞれ画像処理を行うようにすれば、ぼけに起因した画像処理の課題を解決することが可能となる。 As described above, if image processing is performed on each of the pupil-divided image data generated by receiving light flux groups that have passed through different regions on the exit pupil, the problem of image processing due to blurring will be caused. It can be solved.
次に図7〜図10を参照して本発明の第2の実施例を説明する。 Next, a second embodiment of the present invention will be described with reference to FIGS.
図7は、本発発明の第2の実施例に係わる画像処理装置を適用した撮像装置700の構成を示すブロック図である。なお、同図において、図1と同様の部分は同じ符号を付して示す。
FIG. 7 is a block diagram showing a configuration of an
図1において撮像装置700は、逆変換部701、視差検出部702、および合成パラメータ決定部703が追加された点を除けば、図1に示す実施例の撮像装置100と同様である。本実施例では、追加された逆変換部701、視差検出部702および合成パラメータ決定部703と、本実施例の撮像装置において色変換部109による色変換処理を介してどのように補正されたライトフィールドデータが得られるかについての説明のみを行う。
In FIG. 1, the
まず、視差検出部702について説明する。視差検出部702は入力された一対の瞳分割画像データ(像信号)から、視差量を検出する。視差検出部702に入力された一対の瞳分割画像の一方を基準画像、他方を参照画像として参照画像をシフトしながら設定された検出領域の相関を求める。相関を求める方法の詳細な説明は行わないが、例えばパターンマッチング(テンプレートマッチング)の技術であるSADやSSD等の公知の技術を用いればよい。
First, the
相関を求める演算を視差方向に画素単位でシフトしながら演算を繰り返すことで画素毎に最も相関の高くなる位置までのシフト量を求めることができる。最も相関の高くなる位置までのシフト量を用いて、同一の被写体に対する視差量を画素値に換算した視差マップを生成する。 By repeating the calculation while shifting the calculation for obtaining the correlation in units of pixels in the parallax direction, it is possible to obtain the shift amount up to the position with the highest correlation for each pixel. A parallax map in which the parallax amount for the same subject is converted into a pixel value is generated using the shift amount up to the position with the highest correlation.
図8は視差マップを説明する図である。なお、ここでは説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。以降の説明は分割画素Aおよび分割画素Bに示す位置関係と同一の関係性のある分割画素の組み合わせにも適用可能である。 FIG. 8 is a diagram illustrating a parallax map. Here, for the sake of simplicity of explanation, the description will be made with attention paid to the divided pixel A and the divided pixel B. The following description can also be applied to combinations of divided pixels having the same relationship as the positional relationship shown in divided pixel A and divided pixel B.
図8(a)は分割画素A群により取得される瞳分割画像であり、視差検出部702において基準画像として扱われる画像である。図8(b)は分割画素B群により取得される瞳分割画像であり、視差検出部702において参照画像として扱われる画像である。801および802は被写体であり、被写体801は被写体802よりも撮像装置に近い位置に存在する。図8(c)は、基準画像および参照画像から生成された視差マップであり、視差を画素値としてマッピングしている。被写体801の視差量は0であり、被写体802の視差量が100であることを示している。
FIG. 8A is a pupil divided image acquired by the divided pixel A group, and is an image handled as a reference image in the
次に合成パラメータ決定部703の動作について説明する。
視差量の取り得る値のそれぞれに対して後述の画像合成処理を行うことで所定の被写体にピントの合う画像を得ることができる。しかしながら、取り得る全ての視差量に対する画像合成処理を行うためには処理時間がかかり、現実的ではない。そこで合成パラメータ決定部703は、効率的に合成画像を生成するためのパラメータを視差マップ中の視差量の分布に基づいて決定する。
Next, the operation of the synthesis
An image that is in focus on a predetermined subject can be obtained by performing image synthesis processing described later on each of the possible values of the parallax amount. However, it takes time to perform image composition processing for all possible amounts of parallax, which is not practical. Therefore, the synthesis
最初に、合成パラメータ決定部703は、視差マップ(ParallaxMap)中の画素値の統計をとり視差量の分布を求める。そして、分布中に出現する視差量(画素値)を判定する。例えば、視差マップのある領域の画素値が下記のParallaxMapようになっている場合、分布中に出現する視差量(Param1)は50,10,20,100となる。
ParallaxMap = {50,50,50,10,10,50,50,20,20,20,100}
Param1 = {50,10,20,100}
First, the synthesis
ParallaxMap = {50,50,50,10,10,50,50,20,20,20,100}
Param1 = {50,10,20,100}
次に、合成パラメータ決定部703は、分布中に出現する視差量(Param1)に所定の条件に従って並び替えを行い、優先度を決定する。
例えば、視差量の絶対値が小さい順に並び替えを行い、優先度を決定する。
Param2 = {10,20,50,100}
Next, the synthesis
For example, rearrangement is performed in ascending order of the absolute value of the parallax amount to determine the priority.
Param2 = {10,20,50,100}
次に、予め決められた合成処理回数分だけ優先度順にパラメータを抽出する。ここで1フレームあたり3回の色変換処理が可能であるとすると優先度と処理時間を考慮したパラメータParam3は以下のようになる。
Param3 = {10,20,50}
Next, parameters are extracted in order of priority for the number of times of predetermined synthesis processing. Here, assuming that color conversion processing can be performed three times per frame, the parameter Param3 in consideration of the priority and the processing time is as follows.
Param3 = {10,20,50}
このようにして決定された合成パラメータ(Param3)は、撮影時の焦点面に近い被写体を優先的に処理することが可能な合成パラメータとなる。Param3は、例えば撮影時にピントを合わせた被写体に対する画像処理を行う際に、被写体領域に微小な視差が発生しているような場合において有効である。 The synthesis parameter (Param3) determined in this way is a synthesis parameter capable of preferentially processing a subject close to the focal plane at the time of shooting. Param3 is effective, for example, when a minute parallax is generated in the subject area when image processing is performed on the subject that is in focus at the time of shooting.
また、他の優先度決定の条件として、分布中に出現する頻度が高い順に並べ替えて優先度を決定しても良い。
Param4 = {50,20,10,100}
Further, as another priority determination condition, the priorities may be determined by rearranging in descending order of frequency of appearance in the distribution.
Param4 = {50,20,10,100}
Param4に対し予め決められた合成処理回数分だけ優先度順にパラメータを抽出すると以下のようになる。
Param5 = {50,20,10}
When parameters are extracted in order of priority by the number of times of synthesis processing determined in advance for Param4, the result is as follows.
Param5 = {50,20,10}
このようにして決定された合成パラメータ(Param5)は、撮影時の構図中で最も大きな領域を占める被写体に対して優先度を上げた合成パラメータとなる。Param5は、例えば被写界に距離の異なる複数の被写体が存在する場合において、撮影画像中に占める割合が高いものから優先的に処理するため、画面全体に画像処理を行うような場合において有効である。 The synthesis parameter (Param5) determined in this way is a synthesis parameter with a higher priority for the subject occupying the largest area in the composition at the time of shooting. Param5 is effective when image processing is performed on the entire screen because, for example, when there are a plurality of subjects with different distances in the object field, processing is performed preferentially from the highest proportion in the captured image. is there.
また、視差量の分布以外のシフト量の決定方法としては、撮影パラメータであるレンズ情報(F値、焦点距離)に応じて被写界深度を求め、被写界深度に基づいてシフト量を決定しても良い。 Further, as a method for determining the shift amount other than the distribution of the parallax amount, the depth of field is obtained according to the lens information (F value, focal length) that is the shooting parameter, and the shift amount is determined based on the depth of field. You may do it.
なお、離散的なシフト量を予め決めておく場合において、離散的に決めた視差間の視差量を有する画素が存在する場合は、後述の画像処理により得られる結果を線形補間処理しても良い。 In the case where a discrete shift amount is determined in advance, if there is a pixel having a disparity amount between discretely determined parallaxes, a result obtained by image processing described later may be subjected to linear interpolation processing. .
また、視差量の分布以外のシフト量の決定方法としては、撮影モードに応じて画像解析や人物検出等の被写体を認識する技術を併用し、任意のシフト量を決定するようにしても良い。例えば、人物を対象とする補正を行う撮影モードであるとき、画像解析によって基準画像中から人物領域を抽出し、前記人物領域に対応する視差量を合成用シフト量として用いればよい。また、シフト量や優先度は、不図示の操作部によってユーザーが任意に指定できるようにしても良い。 As a method for determining the shift amount other than the distribution of the parallax amount, an arbitrary shift amount may be determined using a technique for recognizing the subject such as image analysis or person detection according to the shooting mode. For example, in the shooting mode in which correction is performed for a person, a person area may be extracted from a reference image by image analysis, and the amount of parallax corresponding to the person area may be used as a composition shift amount. Also, the shift amount and priority may be arbitrarily designated by the user through an operation unit (not shown).
以上合成パラメータの決定方法を説明したが、いずれにおいても後述の合成画像生成において、色変換処理対象となる被写体にピントの合うような合成パラメータを決定できれば良い。 The method for determining the synthesis parameter has been described above. In any case, it is only necessary to determine a synthesis parameter that is in focus on the subject to be subjected to color conversion processing in the later-described synthesis image generation.
次に本実施例における画像合成部108の動作について説明する。
本実施例において画像合成部108は一対の瞳分割画像および合成パラメータ決定部703によって決定されるシフト量(仮想撮像面)に基づいて合成画像を生成する。なお、ここでは説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。以降の説明は分割画素Aおよび分割画素Bに示す位置関係と同一の関係性を有する分割画素の組み合わせにも適用可能である。
Next, the operation of the
In the present embodiment, the
以下に合成画像ImgABの各座標の画素値を合成する為の式を示す。
ImgAB(x,y) =ImgA(x,y) +ImgB(x+shift,y)・・・式2
An expression for synthesizing pixel values of each coordinate of the composite image ImgAB is shown below.
ImgAB (x, y) = ImgA (x, y) + ImgB (x + shift, y) Equation 2
ImgAおよびImgBはそれぞれ色変換前の基準画像および色変換前の参照用画像を、x,yはそれぞれ水平方向、垂直方向の画素座標とし、合成パラメータ決定部703によって決定されるシフト量をShiftとしている。即ち合成画像は一対の瞳分割画像を視差方向にShift画素分だけずらして加算合成した画像となる。
ImgA and ImgB are the base image before color conversion and the reference image before color conversion, x and y are pixel coordinates in the horizontal and vertical directions, respectively, and the shift amount determined by the synthesis
図9は、視差マップの説明に用いた図8に示す一対の瞳分割画像に対してシフト量0で合成された合成画像とシフト量100で合成された合成画像をそれぞれ示す。シフト量0で合成された合成画像としては被写体901にピントの合った画像が、シフト量100で合成された画像としては被写体902にピントのあった画像がそれぞれ取得できる。即ち、視差マップ上の任意の領域にピントの合わせた画像を合成するためには視差マップ上の任意の領域の画素値分だけシフトして(組み合わせて)加算すればよい。なお、ここで示した式2は一例にすぎず、構成される分割画素の個数や特性に応じて適宜式を変形させてもよい。
FIG. 9 shows a composite image synthesized with a
次に、逆変換部701の動作について説明する。なお、ここでは説明を簡便にするために分割画素Aおよび分割画素Bに着目して説明を行うものとする。以降の説明は分割画素Aおよび分割画素Bに示す位置関係と同一の関係性の分割画素の組み合わせにも適用可能である。
Next, the operation of the
逆変換部701は、色変換処理部によって色変換処理が行われた合成画像に基づいて分割画素の画素値(ライトフィールドデータ)を補正する。相関が高い領域、即ちピントの合っている領域においては以下の式3が成り立つ。
ImgA(x,y)≒ ImgB(x+shift,y) ・・・式3
The
ImgA (x, y) ≒ ImgB (x + shift, y) ・ ・ ・ Equation 3
式2および式3より、以下の式4および式5が成り立つ
ImgAB(x,y) ≒ImgA(x,y) + ImgA(x,y) ・・・式4
ImgAB(x,y) ≒ImgB(x+shift,y) + ImgB(x+shift,y) ・・・式5
From Equation 2 and Equation 3, the following Equation 4 and Equation 5 hold.
ImgAB (x, y) ≒ ImgA (x, y) + ImgA (x, y) Equation 4
ImgAB (x, y) ≒ ImgB (x + shift, y) + ImgB (x + shift, y)
式4および式5を変形し、分割画素値ImgB(x+shift,y)および分割画素ImgA(x,y)の画素値を導くことが出来る。
ImgB(x+shift,y) ≒ImgAB(x,y)/2 ・・・式6
ImgA(x,y) ≒ImgAB(x,y)/2 ・・・式7
Equations 4 and 5 can be modified to derive pixel values of the divided pixel value ImgB (x + shift, y) and the divided pixel ImgA (x, y).
ImgB (x + shift, y) ≒ ImgAB (x, y) / 2 Equation 6
ImgA (x, y) ≒ ImgAB (x, y) / 2 Equation 7
このようにして求められた各分割画素の画素値は、ImgA(x,y)、ImgB(x+shift,y)に上書きされる。 The pixel values of the respective divided pixels thus obtained are overwritten on ImgA (x, y) and ImgB (x + shift, y).
なお、ここでは説明の為に簡易な式を用いて逆変換処理を行う例を示したが、瞳分割画像は図11に示すように撮像素子の位置によって異なる形状のシェーディングが発生する。 Here, for the sake of explanation, an example in which the inverse transformation process is performed using a simple expression is shown, but the pupil-divided image has different shapes of shading depending on the position of the image sensor as shown in FIG.
従って、撮像素子102に構成される各分割画素のシェーディング特性を予めメモリ110に保持するようにし、式6及び式7で算出するそれぞれの分割画素の座標に応じてシェーディング特性に応じた比率でゲインを掛けるようにする。そうすればImgA(x,y)、ImgB(x+shift,y)はより自然な補正結果となる。
Therefore, the shading characteristic of each divided pixel configured in the
また、上記は色変換を施した合成画像を逆変換することで各分割画素の値を求める例を示したが、各画素間の視差が既に判明していることから別の方法を用いても実現することが出来る。例えば、基準画像に対してのみ色変換を行い、色変換後の基準画像の画素値を、参照画像の視差量に対応する画素に上書きしても良い。 In addition, the above shows an example in which the value of each divided pixel is obtained by inversely transforming the composite image that has undergone color conversion. However, since the parallax between the pixels has already been determined, another method may be used. Can be realized. For example, color conversion may be performed only on the base image, and the pixel value of the base image after color conversion may be overwritten on the pixel corresponding to the parallax amount of the reference image.
また、基準画像の座標と対応する視差量分だけシフトした参照画像の座標とでそれぞれ同一の色変換テーブルを呼び出すように関連付けて処理してもよい。 Alternatively, the same color conversion table may be called up in association with the coordinates of the reference image and the coordinates of the reference image shifted by the corresponding amount of parallax.
また、画素単位で構成される分割画素の個数やその他の特性に応じて適宜式を変形させても良い。 Further, the equation may be modified as appropriate according to the number of divided pixels configured in pixel units and other characteristics.
次に図10を参照し、撮像装置700の撮影動作について説明する。図10は、本実施例に係わる画像処理装置を適用した撮像装置の撮影動作のフローチャートを示す図である。本動作は、システム制御部105がメモリ110に格納されているプログラムをロードして実行することで撮像装置100の各部を制御して実現される。なお、図10において、本発明の第1の実施例と同様の動作を行う部分には同じ符号を付して示す。
Next, with reference to FIG. 10, the shooting operation of the
撮像装置700は不図示の電源スイッチがONの間(ステップS600で「Y」)、色変換撮影処理を繰り返す。ステップS600〜ステップS602は第1の実施例と同様の処理であるためここでの説明を割愛する。
The
ステップS1003で、視差検出部702によって入力された1対の瞳分割画像の視差量を検出し、視差マップを生成する。次にステップS1004において、合成パラメータ決定部703にステップS1003において取得された視差マップが入力され、上述したように視差マップに基づいて画像合成用のパラメータが決定される。次いで、ステップS1005において画像合成用のパラメータと、一対の瞳分割画像に基づいて画像合成部108による画像の合成処理が行われる。
In step S1003, the parallax amount of the pair of pupil divided images input by the
次に、ステップS1006において、ステップS1005で生成された合成画像に対して撮影モードに応じた色変換処理を色変換部109に行わせ、色変換処理された合成画像データは逆変換部701へと出力される。
Next, in step S1006, the color conversion process according to the shooting mode is performed on the composite image generated in step S1005 by the
次に、ステップS1007で、逆変換部701は色変換後の合成画像と視差マップに基づいた逆変換処理を実施し、合成画像中のピントの合っている領域の分割画素データ(ライトフィールドデータ)の画素値を補正する。
In step S1007, the
次にステップS1008で、ステップS1004によって決定された合成画像パラメータによって決定されるシフト量のそれぞれについて処理が終了したかどうかを判定する。未処理の合成パラメータ(シフト量)が残っている場合はステップS1005に戻り、未処理の合成パラメータに準じて画像合成処理を行う。一方全ての合成パラメータ(シフト量)に対する処理が完了している場合はステップS607へと進む。
ステップS607以降の処理は第1の実施例と同様であるためここでの説明を割愛する。
Next, in step S1008, it is determined whether or not the processing has been completed for each of the shift amounts determined by the composite image parameter determined in step S1004. If an unprocessed synthesis parameter (shift amount) remains, the process returns to step S1005 to perform image synthesis processing according to the unprocessed synthesis parameter. On the other hand, if the processing for all the synthesis parameters (shift amounts) has been completed, the process proceeds to step S607.
Since the processing after step S607 is the same as that of the first embodiment, description thereof is omitted here.
以上説明したように、合成画像に対して色変換処理を行い、前記合成画像のピントの合っている位置に対して色変換後の画素値を分割画素単位の画素値に変換するような逆変換処理を行い、対応する分割画素位置に書き戻す。これによって、色変換処理結果を分割画素に反映することが可能となる。即ち、ピントが合っている被写体に対する画像処理結果を、適切に元の分割画素位置に戻すようにすれば被写体毎のライトフィールドデータの補正処理を実現できる。 As described above, inverse conversion is performed such that color conversion processing is performed on the composite image, and pixel values after color conversion are converted into pixel values in divided pixel units at the in-focus position of the composite image. Processing is performed, and writing is performed back to the corresponding divided pixel position. As a result, the color conversion processing result can be reflected on the divided pixels. That is, if the image processing result for the subject in focus is appropriately returned to the original divided pixel position, the light field data correction processing for each subject can be realized.
上述した本発明によれば、リフォーカス画像の画像処理において、当該画像処理に対応してライトフィールドデータの補正を行うことが可能となり、ボケに起因した各種画像処理の誤補正を防ぐことを可能とする画像処理装置を提供できる。なお、上記実施例は、撮像装置に本発明を適用した例であるが、本発明はこれに限るものではなく、複数の撮像素子で互いに視差のある被写体像を撮像する多眼カメラやPCなどの情報処理装置にも適用可能であることは言うまでもない。 According to the present invention described above, in the image processing of the refocus image, it is possible to correct the light field data corresponding to the image processing, and it is possible to prevent erroneous correction of various image processing due to blurring. An image processing apparatus can be provided. The above embodiment is an example in which the present invention is applied to an imaging apparatus. However, the present invention is not limited to this, and a multi-lens camera, a PC, or the like that captures subject images having parallax with a plurality of imaging elements. It goes without saying that the present invention can also be applied to other information processing apparatuses.
また、上述した実施の形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フロッピィ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリーカード、ROMなどを用いることもできる。 Moreover, the processing of the above-described embodiment may provide a system or apparatus with a storage medium that records a program code of software that embodies each function. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. Alternatively, a CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施例の機能が実現される場合も含まれている。 The functions of the above-described embodiments are not only realized by executing the program code read by the computer. Including the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. It is.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリーに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。 Furthermore, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.
Claims (1)
被写体の光学像を形成する撮像光学系の射出瞳の瞳分割機能を有する撮像手段で生成されたライトフィールドデータを取得する取得手段と、
所定の画像処理を画像データに行う画像処理手段と、
前記所定の画像処理が行われる画像データを、前記ライトフィールドデータを用いて生成する画像生成手段と、
前記画像処理手段を制御して、前記生成された画像データに前記所定の画像処理を行うことで、前記所定の画像処理に従って補正された前記ライトフィールドデータを生成する制御手段と、
を備えることを特徴とする画像処理装置。 In the image processing apparatus,
An acquisition unit that acquires light field data generated by an imaging unit having a pupil division function of an exit pupil of an imaging optical system that forms an optical image of a subject;
Image processing means for performing predetermined image processing on image data;
Image generation means for generating image data to be subjected to the predetermined image processing using the light field data;
Control means for generating the light field data corrected according to the predetermined image processing by controlling the image processing means and performing the predetermined image processing on the generated image data;
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019113888A JP6752942B2 (en) | 2019-06-19 | 2019-06-19 | Image processing equipment, image processing methods and programs, and imaging equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019113888A JP6752942B2 (en) | 2019-06-19 | 2019-06-19 | Image processing equipment, image processing methods and programs, and imaging equipment |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014202274A Division JP6585890B2 (en) | 2014-09-30 | 2014-09-30 | Image processing apparatus, image processing method and program, and imaging apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019208214A true JP2019208214A (en) | 2019-12-05 |
JP6752942B2 JP6752942B2 (en) | 2020-09-09 |
Family
ID=68767861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019113888A Active JP6752942B2 (en) | 2019-06-19 | 2019-06-19 | Image processing equipment, image processing methods and programs, and imaging equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6752942B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022108321A1 (en) * | 2020-11-18 | 2022-05-27 | 삼성전자주식회사 | Display device and control method thereof |
-
2019
- 2019-06-19 JP JP2019113888A patent/JP6752942B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022108321A1 (en) * | 2020-11-18 | 2022-05-27 | 삼성전자주식회사 | Display device and control method thereof |
US11917124B2 (en) | 2020-11-18 | 2024-02-27 | Samsung Electronics Co., Ltd. | Display apparatus and the control method thereof |
Also Published As
Publication number | Publication date |
---|---|
JP6752942B2 (en) | 2020-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6055332B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP4524717B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
US9451160B2 (en) | Imaging apparatus and method for controlling the imaging apparatus | |
JP6838994B2 (en) | Imaging device, control method and program of imaging device | |
JP6555863B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
US9961272B2 (en) | Image capturing apparatus and method of controlling the same | |
JP2010226694A (en) | Image processor and method of image processing | |
JP2012049773A (en) | Imaging apparatus and method, and program | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
JP2013145980A (en) | Imaging device, control method thereof, image processing apparatus, image generation method, program | |
JP6360338B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP2016001853A (en) | Image processing system, imaging device, control method, and program | |
US20130083169A1 (en) | Image capturing apparatus, image processing apparatus, image processing method and program | |
JP2016144042A (en) | Image processing apparatus, image processing method, and program | |
JP2016184956A (en) | Image processing apparatus and image processing method | |
JP6802848B2 (en) | Image processing equipment, imaging system, image processing method and image processing program | |
JP6752942B2 (en) | Image processing equipment, image processing methods and programs, and imaging equipment | |
JP2009047734A (en) | Imaging apparatus and image processing program | |
JP2014155071A (en) | Image processing system, imaging apparatus, control method, and program | |
JP6585890B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP2016100868A (en) | Image processing apparatus, image processing method, and program, and imaging apparatus | |
JP2017184007A (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP7134601B2 (en) | Image processing device, image processing method, imaging device, and imaging device control method | |
JP6566800B2 (en) | Imaging apparatus and imaging method | |
JP2009047735A (en) | Imaging apparatus and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190719 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190719 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200312 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200721 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200819 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6752942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |