JP2021108023A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2021108023A
JP2021108023A JP2019239278A JP2019239278A JP2021108023A JP 2021108023 A JP2021108023 A JP 2021108023A JP 2019239278 A JP2019239278 A JP 2019239278A JP 2019239278 A JP2019239278 A JP 2019239278A JP 2021108023 A JP2021108023 A JP 2021108023A
Authority
JP
Japan
Prior art keywords
reliability
image processing
virtual light
detection
irradiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019239278A
Other languages
Japanese (ja)
Other versions
JP7455578B2 (en
Inventor
遥平 豊原
Yohei TOYOHARA
遥平 豊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019239278A priority Critical patent/JP7455578B2/en
Publication of JP2021108023A publication Critical patent/JP2021108023A/en
Application granted granted Critical
Publication of JP7455578B2 publication Critical patent/JP7455578B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing system and an image processing method that can suppress unnatural effects of virtual light applied to an automatically detected area.SOLUTION: An image processing system determines an irradiation characteristics of virtual light for a feature area detected from image data. Then, an image processing system corrects the determined irradiation characteristics according to the detection reliability of the feature area, and adds an effect of the virtual light to the feature area based on the corrected irradiation characteristics. The image processing system corrects the irradiation characteristics so that the effect of the virtual light is weaker in the case of the second confidence level where the confidence level is lower than the first confidence level than in the case where the detection confidence level is the first confidence level.SELECTED DRAWING: Figure 1

Description

本発明は画像処理装置および画像処理方法に関し、特には画像に仮想光の効果を付与する技術に関する。 The present invention relates to an image processing apparatus and an image processing method, and more particularly to a technique for imparting an effect of virtual light to an image.

従来、画像に対して仮想的な光源からの光(仮想光)の効果を付与するリライティング技術が知られている(特許文献1)。特許文献1では、リライティングを適用する被写体領域のコントラスト値が目標値になるように、仮想光源の位置を定めることが開示されている。 Conventionally, a rewriting technique for imparting an effect of light (virtual light) from a virtual light source to an image has been known (Patent Document 1). Patent Document 1 discloses that the position of a virtual light source is determined so that the contrast value of the subject area to which relighting is applied becomes a target value.

特許第6442209号公報Japanese Patent No. 6442209

リライティングを適用する被写体領域を自動的に検出する場合、リライティングの質は被写体領域の検出精度に影響を受ける。例えば、被写体領域の検出精度が低い場合、リライティング適用後の画像が不自然になりうる。 When the subject area to which relighting is applied is automatically detected, the quality of rewriting is affected by the detection accuracy of the subject area. For example, if the detection accuracy of the subject area is low, the image after applying relighting may become unnatural.

本発明は、自動検出された領域に適用する仮想光の効果が不自然になることを抑制可能な画像処理装置および画像処理方法を提供することを目的とする。 An object of the present invention is to provide an image processing apparatus and an image processing method capable of suppressing the effect of virtual light applied to an automatically detected region from becoming unnatural.

上述の目的は、画像データから特徴領域を検出する検出手段と、特徴領域に対する仮想光の照射特性を決定する決定手段と、特徴領域の検出信頼度に応じて、決定手段が決定した照射特性を補正する補正手段と、補正手段が補正した照射特性に基づいて特徴領域に仮想光の効果を付加する付加手段と、を有し、補正手段は、検出信頼度が第1の信頼度である場合よりも、第1の信頼度より信頼度が低い第2の信頼度の場合の方が仮想光による効果が弱くなるように、照射特性を補正する、ことを特徴とする画像処理装置によって達成される。 The above-mentioned objectives are a detection means for detecting a feature region from image data, a determination means for determining the irradiation characteristics of virtual light for the feature region, and an irradiation characteristic determined by the determination means according to the detection reliability of the feature region. When the correction means has a correction means for correcting and an additional means for adding the effect of virtual light to the feature region based on the irradiation characteristics corrected by the correction means, and the correction means has a detection reliability of the first reliability. Achieved by an image processing apparatus characterized in that the irradiation characteristics are corrected so that the effect of virtual light is weaker in the case of the second reliability, which is lower in reliability than the first reliability. NS.

本発明によれば、自動検出された領域に適用する仮想光の効果が不自然になることを抑制可能な画像処理装置および画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus and an image processing method capable of suppressing the effect of virtual light applied to an automatically detected region from becoming unnatural.

実施形態に係るデジタルカメラの機能構成例を示すブロック図Block diagram showing a functional configuration example of a digital camera according to an embodiment 図1における画像処理部の機能構成例を示すブロック図A block diagram showing a functional configuration example of the image processing unit in FIG. 図2におけるリライティング処理部の機能構成例を示すブロック図A block diagram showing a functional configuration example of the rewriting processing unit in FIG. 実施形態におけるリライティング処理に関する図The figure regarding the rewriting process in an embodiment 実施形態における光源情報補正部の動作に関するフローチャートFlow chart regarding the operation of the light source information correction unit in the embodiment 実施形態において光源情報補正部が用いる信頼度の特性例を示す図The figure which shows the characteristic example of the reliability used by the light source information correction part in an embodiment. 実施形態における光源情報補正部が行う補正に関する図The figure regarding the correction performed by the light source information correction unit in an embodiment. 実施形態における光源情報補正部の効果を模式的に示す図The figure which shows typically the effect of the light source information correction part in an embodiment.

以下、添付図面を参照して本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、その全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, the present invention will be described in detail with reference to the accompanying drawings, based on its exemplary embodiments. The following embodiments do not limit the invention according to the claims. Further, although a plurality of features are described in the embodiment, not all of them are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

なお、以下では、本発明をデジタルカメラに適用した実施形態を説明する。しかし、本発明には撮像機能は必須でなく、任意の電子機器に対して適用可能である。このような電子機器には、ビデオカメラ、コンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDAなど)、携帯電話機、スマートフォン、ゲーム機、ロボット、ドローン、ドライブレコーダが含まれる。これらは例示であり、本発明は他の電子機器にも適用可能である。 In the following, an embodiment in which the present invention is applied to a digital camera will be described. However, the imaging function is not essential to the present invention and can be applied to any electronic device. Such electronic devices include video cameras, computer devices (personal computers, tablet computers, media players, PDAs, etc.), mobile phones, smartphones, game machines, robots, drones, drive recorders and the like. These are examples, and the present invention can be applied to other electronic devices.

図1は、本発明の実施形態にかかる画像処理装置の一例としてのデジタルカメラ100の機能構成例を示すブロック図である。光学系101はフォーカスレンズ、シャッタを兼ねる絞りなどを含み、撮像素子102の撮像面に被写体像を形成する。フォーカスレンズや絞りの動作は制御部109が制御する。 FIG. 1 is a block diagram showing a functional configuration example of a digital camera 100 as an example of an image processing device according to an embodiment of the present invention. The optical system 101 includes a focus lens, a diaphragm that also serves as a shutter, and the like, and forms a subject image on the image pickup surface of the image pickup device 102. The control unit 109 controls the operation of the focus lens and the aperture.

撮像素子102は、例えばCCDイメージセンサやCMOSイメージセンサであり、2次元配列された複数の光電変換部(画素)を有する。撮像素子102は光学系101が形成する被写体像を光電変換部で電気信号に変換することにより、アナログ画像信号を生成する。A/D変換部103はアナログ画像信号をA/D変換し、RAW画像データを生成する。 The image sensor 102 is, for example, a CCD image sensor or a CMOS image sensor, and has a plurality of photoelectric conversion units (pixels) arranged in two dimensions. The image pickup device 102 generates an analog image signal by converting the subject image formed by the optical system 101 into an electric signal by the photoelectric conversion unit. The A / D conversion unit 103 A / D-converts the analog image signal to generate RAW image data.

画像処理部104はRAW画像データに対して予め定められた画像処理を適用し、信号や画像データを生成したり、各種の情報を取得および/または生成したりする。画像処理部104は例えば特定の機能を実現するように設計されたASICのような専用のハードウェア回路であってもよいし、DSPのようなプログラマブルプロセッサがソフトウェアを実行することで特定の機能を実現する構成であってもよい。 The image processing unit 104 applies predetermined image processing to the RAW image data, generates signals and image data, and acquires and / or generates various types of information. The image processing unit 104 may be a dedicated hardware circuit such as an ASIC designed to realize a specific function, or a programmable processor such as a DSP may execute the software to perform the specific function. It may be a configuration to be realized.

ここで、画像処理部104が適用する画像処理には、前処理、色補間処理、補正処理、データ加工処理、評価値算出処理、特殊効果処理などが含まれる。前処理には、信号増幅、基準レベル調整、欠陥画素補正などが含まれる。色補間処理は、画素から読み出した画像データに含まれていない色成分の値を補間する処理であり、デモザイク処理や同時化処理とも呼ばれる。補正処理には、ホワイトバランス調整、階調補正(ガンマ処理)、光学系101の光学系の収差を補正する処理、色を補正する処理などが含まれる。データ加工処理には、合成処理、スケーリング処理、符号化および復号処理、ヘッダ情報生成処理などが含まれる。評価値算出処理は、自動焦点検出(AF)に用いる信号や評価値の生成、自動露出制御(AE)に用いる評価値の算出処理などである。特殊効果処理には、ぼかしの付加、色調の変更、リライティング処理などが含まれる。なお、これらは画像処理部104が実施可能な画像処理の例示であり、画像処理部104が実施する画像処理を限定するものではない。 Here, the image processing applied by the image processing unit 104 includes preprocessing, color interpolation processing, correction processing, data processing processing, evaluation value calculation processing, special effect processing, and the like. Preprocessing includes signal amplification, reference level adjustment, defective pixel correction, and the like. The color interpolation process is a process of interpolating the values of color components not included in the image data read from the pixels, and is also called a demosaic process or a simultaneous process. The correction processing includes white balance adjustment, gradation correction (gamma processing), processing for correcting aberrations in the optical system of the optical system 101, processing for correcting color, and the like. The data processing process includes synthesis processing, scaling processing, coding and decoding processing, header information generation processing, and the like. The evaluation value calculation process includes generation of signals and evaluation values used for automatic focus detection (AF), calculation process of evaluation values used for automatic exposure control (AE), and the like. Special effects processing includes adding blur, changing color tones, rewriting processing, and the like. Note that these are examples of image processing that can be performed by the image processing unit 104, and do not limit the image processing performed by the image processing unit 104.

画像処理部104はRAW画像データに対して所定の画像処理を適用して記録用の画像データや表示用の画像データを生成する。記録用の画像データは所定の画像データファールの形式で記録部108に出力される。また、表示用の画像データはメモリ110のVRAM領域に出力される。 The image processing unit 104 applies predetermined image processing to the RAW image data to generate image data for recording and image data for display. The image data for recording is output to the recording unit 108 in the form of a predetermined image data foul. Further, the image data for display is output to the VRAM area of the memory 110.

記録部108は、制御部109の制御に従い、半導体メモリカードなどの記録媒体に、画像処理部104から出力される画像データを記録する。また、記録部108は、制御部109の制御に従い、記録媒体からデータを読み出して例えばメモリ110に出力する。 The recording unit 108 records the image data output from the image processing unit 104 on a recording medium such as a semiconductor memory card under the control of the control unit 109. Further, the recording unit 108 reads data from the recording medium and outputs the data to, for example, the memory 110 under the control of the control unit 109.

距離マップ生成部105は、例えば画像処理部104から供給される画像データを用いて撮影範囲の距離マップD_MAPを生成し、生成した距離マップD_MAPを画像処理部104に出力する。距離マップD_MAPを生成する方法に特に制限はなく、公知の方法を用いることができる。距離マップD_MAPは画素ごとに被写体距離を表す情報であり、輝度値が距離を表すデプスマップ(距離画像、奥行き画像などと呼ばれることもある)であってよい。例えば、画像処理部104が生成するコントラストAF用の評価値が極大となるフォーカスレンズ位置を画素ごとに求めることで、画素ごとに被写体距離を取得することができる。また、合焦距離を変えて同一シーンを複数回撮影して得られる画像データと光学系の点像分布関数(PSF)とから、ぼけ量と距離との相関関係に基づいて画素ごとの距離情報を求めることもできる。これらの技術に関しては例えば特開2010−177741号公報や米国特許第4,965,840号公報などに記載されている。また、撮像素子102が視差画像の撮影に対応している場合など、視差画像対が利用できる場合には、ステレオマッチング等の手法で画素ごとに被写体距離を取得することができる。 The distance map generation unit 105 generates a distance map D_MAP of the shooting range using, for example, image data supplied from the image processing unit 104, and outputs the generated distance map D_MAP to the image processing unit 104. The method for generating the distance map D_MAP is not particularly limited, and a known method can be used. The distance map D_MAP is information representing the subject distance for each pixel, and may be a depth map (sometimes called a distance image, a depth image, etc.) in which the brightness value represents the distance. For example, by obtaining the focus lens position at which the evaluation value for contrast AF generated by the image processing unit 104 is maximized for each pixel, the subject distance can be acquired for each pixel. In addition, the distance information for each pixel is based on the correlation between the amount of blur and the distance from the image data obtained by shooting the same scene multiple times with different focusing distances and the point spread function (PSF) of the optical system. Can also be asked. These techniques are described in, for example, Japanese Patent Application Laid-Open No. 2010-177741 and US Pat. No. 4,965,840. Further, when the parallax image pair can be used, such as when the image sensor 102 supports the shooting of a parallax image, the subject distance can be acquired for each pixel by a technique such as stereo matching.

顔検出部106は、画像処理部104でリライティング処理を適用する特徴領域(被写体領域)の一例として、画像データから人物の顔の特徴を有する領域(顔領域)を検出する。なお、リライティング処理を適用する被写体領域は顔領域に限定されず、他の特徴領域であってよい。なお、顔検出部106は、公知の方法により顔領域を検出することができる。 The face detection unit 106 detects a region (face region) having the characteristics of a person's face from the image data as an example of the feature region (subject region) to which the image processing unit 104 applies the rewriting process. The subject area to which the rewriting process is applied is not limited to the face area, and may be another feature area. The face detection unit 106 can detect the face region by a known method.

公知の方法の例としては、ニューラルネットワークなどを利用した学習に基づいて顔領域を検出する方法、テンプレートマッチングを用いて目、鼻、口等、顔の器官を画像から検出する方法、肌の色や目の形といった画像特徴量に基づく方法などがある。また、これらの方法を複数組み合わせ、顔領域の検出の精度を向上させることもできる。 Examples of known methods include a method of detecting a face region based on learning using a neural network, a method of detecting facial organs such as eyes, nose, and mouth from an image using template matching, and a skin color. There are methods based on image features such as the shape of the eyes and the shape of the eyes. In addition, a plurality of these methods can be combined to improve the accuracy of detecting the face region.

本実施形態において顔検出部106は、顔領域の検出時に、顔領域に含まれる部位(右目、左目、口、鼻など。顔の器官とも呼ぶ)の座標を検出する。そして、顔検出部106は、右目と左目との距離など、器官間の距離を算出する。器官間の距離は、例えば器官の画像領域(器官領域)の代表座標(例えば中心もしくは重心座標)間の距離であってよい。顔検出部106は、器官間の距離に基づいて、器官領域の代表座標の重心座標を中心とする楕円領域を顔領域として検出する。この際、顔検出部106は例えば色情報や距離情報を用いて、背景領域を含まないように楕円領域の大きさを決定する。 In the present embodiment, the face detection unit 106 detects the coordinates of the parts (right eye, left eye, mouth, nose, etc., also referred to as facial organs) included in the face region when the face region is detected. Then, the face detection unit 106 calculates the distance between the organs, such as the distance between the right eye and the left eye. The distance between the organs may be, for example, the distance between the representative coordinates (for example, the center or center of gravity coordinates) of the image region (organ region) of the organ. The face detection unit 106 detects an elliptical region centered on the center of gravity of the representative coordinate of the organ region as the face region based on the distance between the organs. At this time, the face detection unit 106 uses, for example, color information and distance information to determine the size of the elliptical region so as not to include the background region.

また顔検出部106は、顔領域、器官領域について、検出の確からしさを示す検出信頼度も公知の方法で算出する。例えば、器官領域をパターンマッチングで検出する場合には、マッチングの度合い(例えばテンプレートとの相関度)を検出信頼度とすることができる。また、顔領域の検出信頼度は、例えば、器官間の距離や、器官領域の検出信頼度に基づいて決定することができる。なお、これらは例示であり、他の方法で検出信頼度を求めてもよい。顔検出部106は、検出結果(例えば顔領域の数、顔領域情報(例えば位置、大きさ、検出信頼度など))を画像処理部104に出力する。なお、被写体領域の検出処理は画像処理部104で実行してもよい。 Further, the face detection unit 106 also calculates the detection reliability indicating the certainty of detection of the face region and the organ region by a known method. For example, when the organ region is detected by pattern matching, the degree of matching (for example, the degree of correlation with the template) can be used as the detection reliability. Further, the detection reliability of the face region can be determined based on, for example, the distance between the organs and the detection reliability of the organ region. Note that these are examples, and the detection reliability may be obtained by other methods. The face detection unit 106 outputs the detection result (for example, the number of face areas, face area information (for example, position, size, detection reliability, etc.)) to the image processing unit 104. The image processing unit 104 may execute the detection process of the subject area.

なお、顔検出部106で顔領域が複数検出された場合、顔検出部106は1つの顔領域を主顔領域として選択する。選択方法に特に制限はないが、面積が最も大きい顔領域や、画面の中央に最も近い顔領域、検出信頼度が最も高い顔領域を主顔領域として選択することができる。あるいは、主顔領域をユーザに選択させてもよい。なお、主顔領域の選択は画像処理部104が行ってもよい。以下の説明では特に主顔領域と他の顔領域とを区別しないが、複数の顔領域が検出された場合、本実施形態では主顔領域をリライティング処理を適用する顔領域とする。 When a plurality of face regions are detected by the face detection unit 106, the face detection unit 106 selects one face region as the main face region. The selection method is not particularly limited, but the face area having the largest area, the face area closest to the center of the screen, and the face area having the highest detection reliability can be selected as the main face area. Alternatively, the user may be allowed to select the main face area. The image processing unit 104 may select the main face region. In the following description, the main face area and other face areas are not particularly distinguished, but when a plurality of face areas are detected, the main face area is set as the face area to which the rewriting process is applied in the present embodiment.

遮蔽物検出部107は、画像データから、リライティング処理を適用する被写体の一部を遮蔽している(隠している)物体の領域(遮蔽物領域)を検出する。本実施形態では顔領域にリライティング処理を適用するため、遮蔽物としてマスクやサングラスなど、顔領域を隠す物体を検出する。遮蔽物領域の検出方法に特に制限は無く、テンプレートマッチングなど公知の方法を用いることができる。顔領域内の距離情報を用いてもよい。遮蔽物検出部107は、検出した遮蔽物領域の情報(例えば位置、大きさ、検出信頼度など)を画像処理部104に出力する。 The shield detection unit 107 detects a region (shield region) of an object that shields (hides) a part of the subject to which the rewriting process is applied from the image data. In this embodiment, since the rewriting process is applied to the face area, an object that hides the face area, such as a mask or sunglasses, is detected as a shield. The method for detecting the shielded area is not particularly limited, and a known method such as template matching can be used. Distance information within the face area may be used. The shield detection unit 107 outputs information on the detected shield region (for example, position, size, detection reliability, etc.) to the image processing unit 104.

制御部109は、1つ以上のマイクロプロセッサ(CPU、MPU)を有し、例えばメモリ110内のROMに記憶されたプログラムをメモリ110内のRAMに読み込んで実行することにより、各機能ブロックの動作を制御する。これにより、制御部109はデジタルカメラ100の各種の機能を実現する。制御部109は例えば、画像処理部104が生成するAF評価値に基づいてフォーカスレンズの駆動を制御したり、画像処理部104が生成するAE評価値に基づいて露出条件を決定したりする。 The control unit 109 has one or more microprocessors (CPU, MPU), and operates each functional block by, for example, reading a program stored in the ROM in the memory 110 into the RAM in the memory 110 and executing the program. To control. As a result, the control unit 109 realizes various functions of the digital camera 100. For example, the control unit 109 controls the driving of the focus lens based on the AF evaluation value generated by the image processing unit 104, and determines the exposure condition based on the AE evaluation value generated by the image processing unit 104.

メモリ110はROM(不揮発性領域)とRAM(揮発性領域)とを有する。ROMには制御部109のマイクロプロセッサが実行可能なプログラム、設定値、GUIデータなどを記憶する。RAMは、制御部109のマイクロプロセッサが実行するプログラムを読み込んだり、プログラムの実行中に必要な値を保存したりするために用いられる。RAMはまた、画像処理部104のバッファとして用いられたり、表示部112のビデオメモリとして用いられたりする。 The memory 110 has a ROM (nonvolatile area) and a RAM (volatile area). The ROM stores programs, setting values, GUI data, etc. that can be executed by the microprocessor of the control unit 109. The RAM is used to read a program executed by the microprocessor of the control unit 109 and to store values required during the execution of the program. The RAM is also used as a buffer for the image processing unit 104 or as a video memory for the display unit 112.

操作部111は、ユーザがデジタルカメラ100に各種の指示を入力するためのボタンやスイッチなどの入力デバイスの総称である。表示部112がタッチディスプレイである場合、タッチパネルは操作部111に含まれる。また、音声入力や視線入力など、非接触で指示を入力するタイプの入力デバイスが操作部111に含まれてもよい。 The operation unit 111 is a general term for input devices such as buttons and switches for a user to input various instructions to the digital camera 100. When the display unit 112 is a touch display, the touch panel is included in the operation unit 111. Further, the operation unit 111 may include an input device of a type such as voice input or line-of-sight input that inputs an instruction in a non-contact manner.

表示部112は、例えばデジタルカメラ100の背面に設置された液晶ディスプレイである。表示部112は、撮影スタンバイ状態や動画撮影中に電子ビューファインダ(EVF)として機能する。また、表示部112は、デジタルカメラ100の現在の設定値や状態や、メニュー画面、記録部108から読み出された画像データなども表示する。 The display unit 112 is, for example, a liquid crystal display installed on the back surface of the digital camera 100. The display unit 112 functions as an electronic viewfinder (EVF) in the shooting standby state or during movie shooting. The display unit 112 also displays the current set value and state of the digital camera 100, the menu screen, the image data read from the recording unit 108, and the like.

図2は、画像処理部104の構成例を示すブロック図である。画像処理部104は、同時化処理部201、ホワイトバランス処理部202、リライティング処理部203、ガンマ処理部204を有する。 FIG. 2 is a block diagram showing a configuration example of the image processing unit 104. The image processing unit 104 includes a simultaneous processing unit 201, a white balance processing unit 202, a rewriting processing unit 203, and a gamma processing unit 204.

A/D変換部103が出力するRAW画像データは、同時化処理部201に入力される。同時化処理部201は、画像データを構成する画素データに不足している色成分の値を生成する。ここでは、撮像素子102に原色ベイヤ配列のカラーフィルタが設けられているものとする。この場合、入力されるRAW画像データを構成する画素データは、R、G、Bの色成分のうち1つの色成分の値しか有していない。同時化処理部201は、公知の色補間方法を用いて、個々の画素データに不足している色成分の値を生成する。 The RAW image data output by the A / D conversion unit 103 is input to the simultaneous processing unit 201. The simultaneous processing unit 201 generates values of color components that are lacking in the pixel data constituting the image data. Here, it is assumed that the image sensor 102 is provided with a color filter having a primary color Bayer array. In this case, the pixel data constituting the input RAW image data has only one color component value among the R, G, and B color components. The simultaneous processing unit 201 uses a known color interpolation method to generate the values of the color components that are lacking in the individual pixel data.

同時化処理部201は、処理を適用した画像データをホワイトバランス処理部202に出力する。ホワイトバランス処理部202は、例えば制御部109が算出したホワイトバランスゲインを適用することにより、画像データのホワイトバランスを補正する。ホワイトバランス補正後の画像データはリライティング処理部203に出力されるほか、距離マップ生成部105、顔検出部106、および遮蔽物検出部107に出力される。 The simultaneous processing unit 201 outputs the processed image data to the white balance processing unit 202. The white balance processing unit 202 corrects the white balance of the image data by applying, for example, the white balance gain calculated by the control unit 109. The image data after the white balance correction is output to the rewriting processing unit 203, and is also output to the distance map generation unit 105, the face detection unit 106, and the obstruction detection unit 107.

なお、距離マップ生成部105、顔検出部106、および遮蔽物検出部107で用いる画像データは、ホワイトバランス補正処理後の画像データに限定されず、他の処理段階で供給されてもよい。 The image data used by the distance map generation unit 105, the face detection unit 106, and the obstruction detection unit 107 is not limited to the image data after the white balance correction processing, and may be supplied at another processing stage.

リライティング処理部203は、ホワイトバランス処理部202から画像データを、距離マップ生成部105から距離マップD_MAPを、顔検出部106から検出結果をそれぞれ受け取る。リライティング処理部203は、画像データに対して仮想光を照射した効果を付加するリライティング処理を適用し、処理後の画像データ(R_out,G_out,B_out)をガンマ処理部204に出力する。ガンマ処理部204はリライティング処理後の画像データに対して予め定められたガンマカーブに基づく階調変換処理を適用し、処理後の画像データ(Rg,Gg,Bg)を記録部108に出力する。ここでは省略しているが、ガンマ処理後、記録部108に出力されるまでに様々な画像処理(例えば符号化処理)が適用されうる。また、ガンマ処理後の画像データが表示用であれば記録部108には出力されず、メモリ110を介して表示部112に出力される。 The rewriting processing unit 203 receives image data from the white balance processing unit 202, distance map D_MAP from the distance map generation unit 105, and detection results from the face detection unit 106. The rewriting processing unit 203 applies a rewriting process that adds an effect of irradiating virtual light to the image data, and outputs the processed image data (R_out, G_out, B_out) to the gamma processing unit 204. The gamma processing unit 204 applies a gradation conversion process based on a predetermined gamma curve to the image data after the rewriting process, and outputs the processed image data (Rg, Gg, Bg) to the recording unit 108. Although omitted here, various image processing (for example, coding processing) can be applied after the gamma processing until the image is output to the recording unit 108. If the image data after the gamma processing is for display, it is not output to the recording unit 108, but is output to the display unit 112 via the memory 110.

リライティング処理部203が画像データに適用する処理の詳細について、図3を用いて説明する。図3はリライティング処理部203の構成例を示すブロック図である。リライティング処理部203は、法線取得部301、光源情報算出部302、光源情報補正部303、拡散反射成分算出部304、付加処理部305、を有する。 The details of the processing applied to the image data by the rewriting processing unit 203 will be described with reference to FIG. FIG. 3 is a block diagram showing a configuration example of the rewriting processing unit 203. The rewriting processing unit 203 includes a normal acquisition unit 301, a light source information calculation unit 302, a light source information correction unit 303, a diffuse reflection component calculation unit 304, and an additional processing unit 305.

顔検出部106による検出結果は法線取得部301に入力される。法線取得部301は、顔検出部106が検出した顔領域に対する法線情報を取得する。例えば法線取得部301は、顔検出部106が検出した顔領域における器官の位置や距離などから顔の向きを決定し、予めメモリ110のROM領域に予め格納された一般的な人物の顔に対する法線情報を用いて、検出された顔領域に適切な法線情報を取得する。法線取得部301は、取得した法線情報Nを光源情報算出部302へ出力する。 The detection result by the face detection unit 106 is input to the normal acquisition unit 301. The normal acquisition unit 301 acquires the normal information for the face region detected by the face detection unit 106. For example, the normal acquisition unit 301 determines the direction of the face from the position and distance of the organ in the face area detected by the face detection unit 106, and determines the direction of the face with respect to the face of a general person stored in advance in the ROM area of the memory 110. Using the normal information, the appropriate normal information is acquired for the detected face area. The normal acquisition unit 301 outputs the acquired normal information N to the light source information calculation unit 302.

光源情報算出部302は、ホワイトバランス処理部202から画像データを、法線取得部301から法線Nを供給される。光源情報算出部302は、公知の方法を用いて仮想光の照射方向を示す3次元方向ベクトルLと、仮想光源の強度αとを算出する。例えば、特許文献1に記載されているように、類似色を有するブロックの輝度に基づいて求めたコントラスト値と、推定した環境光の照射方向とに基づいて、コントラスト値を目標値にするための仮想光の照射特性(照射方向や照射強度)を決定することができる。なお、仮想光の照射特性(照射方向や照射強度)を決定する方法は、特許文献1に記載された方法に限定されない。 The light source information calculation unit 302 is supplied with image data from the white balance processing unit 202 and normal N from the normal acquisition unit 301. The light source information calculation unit 302 calculates the three-dimensional direction vector L indicating the irradiation direction of the virtual light and the intensity α of the virtual light source by using a known method. For example, as described in Patent Document 1, for setting the contrast value as a target value based on the contrast value obtained based on the brightness of blocks having similar colors and the estimated irradiation direction of ambient light. The irradiation characteristics (irradiation direction and irradiation intensity) of virtual light can be determined. The method for determining the irradiation characteristics (irradiation direction and irradiation intensity) of virtual light is not limited to the method described in Patent Document 1.

本実施形態では、仮想光源から被写体に照射される仮想光の方向を3次元方向ベクトルである仮想光ベクトルLとして表す。また、照射強度を照射目標座標と光源座標との距離に基づいて光源強度αに換算する。ベクトルLは、仮想光の照射方向を示す単位ベクトルnLと、照射目標座標と光源座標との距離|L|からL=|L|*nLと表記することができる。光源情報算出部302は、求めたベクトルLおよび照射強度αを光源情報補正部303へ出力する。 In the present embodiment, the direction of the virtual light emitted from the virtual light source to the subject is represented as a virtual light vector L which is a three-dimensional direction vector. Further, the irradiation intensity is converted into the light source intensity α based on the distance between the irradiation target coordinates and the light source coordinates. The vector L can be expressed as the unit vector nL indicating the irradiation direction of the virtual light and the distance | L | to L = | L | * nL between the irradiation target coordinates and the light source coordinates. The light source information calculation unit 302 outputs the obtained vector L and the irradiation intensity α to the light source information correction unit 303.

光源情報補正部303は、仮想光源を照射する顔領域の状態に基づいて、仮想光の照射特性を表す仮想光ベクトルL(照射方向)と光源強度α(照射強度)の少なくとも一方を特徴領域の検出信頼度に応じて補正する。光源情報補正部303は、補正後の仮想光ベクトルL’と補正後の光源強度α’を拡散反射成分算出部304に出力する。 The light source information correction unit 303 has at least one of a virtual light vector L (irradiation direction) and a light source intensity α (irradiation intensity) representing the irradiation characteristics of virtual light as a characteristic region based on the state of the face region to irradiate the virtual light source. Correct according to the detection reliability. The light source information correction unit 303 outputs the corrected virtual light vector L'and the corrected light source intensity α'to the diffuse reflection component calculation unit 304.

拡散反射成分算出部304は、被写体による仮想光の拡散反射成分Rd、Gd、Bdを算出する。拡散反射成分の求め方について、図4を用いて説明する。
図4は、撮影時におけるデジタルカメラ100と被写体401、および被写体に仮想光を照射する仮想光源402との位置を鉛直上方からみた図である。なお、ここでは鉛直な撮像面のある水平方向に並んだ画素に入射する光線に関して述べる。垂直方向についても基本的な考え方は同様である。また、被写体401の形状は説明および理解を容易にするために単純化している。
The diffuse reflection component calculation unit 304 calculates the diffuse reflection components Rd, Gd, and Bd of the virtual light by the subject. How to obtain the diffuse reflection component will be described with reference to FIG.
FIG. 4 is a vertical view of the positions of the digital camera 100, the subject 401, and the virtual light source 402 that irradiates the subject with virtual light at the time of shooting. Here, the light rays incident on the pixels arranged in the horizontal direction with the vertical imaging surface will be described. The basic idea is the same for the vertical direction. Further, the shape of the subject 401 is simplified for easy explanation and understanding.

デジタルカメラ100で撮影された画像の水平画素位置H1に入射する仮想光の拡散反射成分は、カメラ座標H1における、法線N1と仮想光ベクトルL1の内積に比例し、仮想光源402と被写体位置の距離K1の二乗に反比例する値となる。したがって、仮想光源402から放射された光(仮想光)が被写体401で反射されることによる拡散反射成分の強度Pdは(式1)で表すことができる。

Figure 2021108023
ここで、(式1)におけるNは被写体の3次元法線ベクトル、Kは仮想光源と被写体との距離、kdは被写体の拡散反射率である。α’、L’はそれぞれ光源情報補正部303が出力する補正後の仮想光源の強度と仮想光ベクトルである。wθは予め用意された、仮想光源402の方向と被写体の法線方向の差に基づく重み関数である。重み関数wθは、仮想光源402の方向と、仮想光源から注目画素(カメラ座標H1)に対応する被写体上の位置への方向の角度差に応じて変化する特性をもつ。 The diffuse reflection component of the virtual light incident on the horizontal pixel position H1 of the image taken by the digital camera 100 is proportional to the inner product of the normal N1 and the virtual light vector L1 at the camera coordinates H1, and the virtual light source 402 and the subject position. The value is inversely proportional to the square of the distance K1. Therefore, the intensity Pd of the diffuse reflection component due to the light (virtual light) emitted from the virtual light source 402 being reflected by the subject 401 can be expressed by (Equation 1).
Figure 2021108023
Here, N in (Equation 1) is the three-dimensional normal vector of the subject, K is the distance between the virtual light source and the subject, and kd is the diffuse reflectance of the subject. α'and L'are the intensity and the virtual light vector of the corrected virtual light source output by the light source information correction unit 303, respectively. wθ is a weighting function prepared in advance based on the difference between the direction of the virtual light source 402 and the normal direction of the subject. The weighting function wθ has a characteristic that changes according to the angle difference between the direction of the virtual light source 402 and the direction from the virtual light source to the position on the subject corresponding to the pixel of interest (camera coordinates H1).

また、拡散反射成分の強度Pdを用い、色成分ごとの拡散反射成分Rd、Gd、Bdは(式2)で表すことができる。
Rd=Pd×Rw×R
Gd=Pd×Gw×G ・・・(式2)
Bd=Pd×Bw×B
ここで、R、G、Bは注目画素の色成分値、Rw、Gw、Bwは仮想光源402(仮想光)の色を示すパラメータである。
Further, using the intensity Pd of the diffuse reflection component, the diffuse reflection components Rd, Gd, and Bd for each color component can be expressed by (Equation 2).
Rd = Pd × Rw × R
Gd = Pd × Gw × G ・ ・ ・ (Equation 2)
Bd = Pd × Bw × B
Here, R, G, and B are parameters indicating the color component value of the pixel of interest, and Rw, Gw, and Bw are parameters indicating the color of the virtual light source 402 (virtual light).

付加処理部305は、拡散反射成分算出部304で算出した拡散反射成分Rd、Gd、Bdを、ホワイトバランス処理部202から入力される画像データのうち、注目画素の色成分値R、G、Bに付加することにより、仮想光の効果を付加する。したがって、付加処理部305が仮想光の効果を付加した画像データR_out、G_out、B_outは(式3)のように表すことができる。
R_out=R+Rd
G_out=G+Gd ・・・(式3)
B_out=B+Bd
The additional processing unit 305 uses the diffuse reflection components Rd, Gd, and Bd calculated by the diffuse reflection component calculation unit 304 as the color component values R, G, and B of the pixel of interest in the image data input from the white balance processing unit 202. By adding to, the effect of virtual light is added. Therefore, the image data R_out, G_out, and B_out to which the effect of virtual light is added by the additional processing unit 305 can be expressed as in (Equation 3).
R_out = R + Rd
G_out = G + Gd ... (Equation 3)
B_out = B + Bd

付加処理部305は、ホワイトバランス処理部202から入力される画像データのうち、リライティング処理の対象となる被写体領域に含まれる画素のデータについて、拡散反射成分を付加して出力する。付加処理部305は、被写体領域に含まれない画素のデータについては色成分R,G,Bを変更せずに出力する。 The addition processing unit 305 adds a diffuse reflection component to the image data input from the white balance processing unit 202, and outputs the data of the pixels included in the subject area to be rewritten. The additional processing unit 305 outputs the data of the pixels not included in the subject area without changing the color components R, G, and B.

次に、光源情報補正部303の処理について図5に示すフローチャートを用いて詳細に説明する。
S501で光源情報補正部303は、顔面積情報、顔信頼度、顔器官検出信頼度を顔検出部106から取得する。また、光源情報補正部303は、ホワイトバランス処理部202から入力される画像データのうち、顔領域に含まれる画素データから顔領域の輝度値を求め、顔明るさ情報とする。光源情報補正部303は、例えば画素データのR、G、B成分を所定の比率、例えばR:G:Bを3:6:1の比率で合成した値を輝度値として算出することができる。なお、光源情報補正部303は、顔明るさ情報を画像処理部104または制御部109から取得してもよい。また、光源情報補正部303は、顔領域に含まれる器官領域の情報から得られる顔領域内の器官の配置と、予め保持している正面向きの顔における器官領域の配置と比較することにより、顔領域の姿勢(被写体の角度)を求める。顔領域の姿勢は、正面向きの角度を水平0°垂直0°としたときの、水平角度、垂直角度として求めることができる。また、光源情報補正部303は、遮蔽物検出部107から遮蔽物領域の情報を取得する。
Next, the processing of the light source information correction unit 303 will be described in detail with reference to the flowchart shown in FIG.
In S501, the light source information correction unit 303 acquires face area information, face reliability, and face organ detection reliability from the face detection unit 106. Further, the light source information correction unit 303 obtains the brightness value of the face area from the pixel data included in the face area among the image data input from the white balance processing unit 202, and uses it as the face brightness information. The light source information correction unit 303 can calculate, for example, a value obtained by synthesizing R, G, and B components of pixel data at a predetermined ratio, for example, R: G: B at a ratio of 3: 6: 1, as a luminance value. The light source information correction unit 303 may acquire face brightness information from the image processing unit 104 or the control unit 109. Further, the light source information correction unit 303 compares the arrangement of the organs in the face region obtained from the information of the organ regions included in the face region with the arrangement of the organ regions in the front-facing face held in advance. Obtain the posture of the face area (angle of the subject). The posture of the face region can be obtained as a horizontal angle and a vertical angle when the frontal angle is 0 ° horizontal and 0 ° vertical. Further, the light source information correction unit 303 acquires information on the shield area from the shield detection unit 107.

S502で光源情報補正部303は、光源信頼度を算出する。光源信頼度は、以下の複数の信頼度に基づく。
顔角度に基づく信頼度Conf_FaceAngle
顔面積に基づく信頼度Conf_FaceSize
顔器官検出信頼度Conf_FacePartsDetect
顔検出信頼度Conf_FaceDetect
顔明るさに基づく信頼度Conf_Luminace
顔遮蔽物に基づく信頼度Conf_FaceCover
In S502, the light source information correction unit 303 calculates the light source reliability. The light source reliability is based on the following plurality of reliabilitys.
Reliability based on face angle Conf_FaceAngle
Reliability based on face area Conf_FaceSize
Facial organ detection reliability Conf_FacePartsDetect
Face detection reliability Conf_FaceDetect
Reliability based on face brightness Conf_Luminace
Reliability based on face shield Conf_FaceCover

顔角度に基づく信頼度Conf_FaceAngleは、顔の姿勢を表す角度が大きいほど低くなる信頼度であり、例えば図6(a)に示す特性を持つ。デジタルカメラ100に対して顔が正対している(正面を向いている)場合に、水平方向および垂直方向の角度が0度であるものとする。また、デジタルカメラ100からみて顔が右方向および上方向に向いている場合に水平方向および垂直方向に正の角度を有し、左方向および下方向に向いている場合に水平方向および垂直方向に負の角度を有するものとする。顔の水平方向の角度絶対値と垂直方向の角度絶対値の加重加算値FaceAngleが予め定めたTh_FaceAngleを超えると信頼度Conf_FaceAngleは0になる。基本的に、正面向きからの角度が大きいほど信頼度Conf_FaceAngleは低下する。 The reliability Conf_FaceAngle based on the face angle is a reliability that decreases as the angle representing the posture of the face increases, and has the characteristics shown in FIG. 6A, for example. It is assumed that the horizontal and vertical angles are 0 degrees when the face is facing the digital camera 100 (facing the front). Further, when the face is directed to the right and upward when viewed from the digital camera 100, it has a positive angle in the horizontal and vertical directions, and when it is oriented to the left and downward, it has horizontal and vertical directions. It shall have a negative angle. When the weighted addition value FaceAngle of the horizontal angle absolute value and the vertical angle absolute value of the face exceeds the predetermined Th_FaceAngle, the reliability Conf_FaceAngle becomes 0. Basically, the larger the angle from the front, the lower the reliability Conf_FaceAngle.

ここで、水平角度と垂直角度を加算する際の重みは任意に設定してよい。一例をあげれば、顔検出部106の特性に基づいて設定することができる。例えば、顔検出部106が機械学習したニューラルネットワークに基づいて顔領域を検出する構成とする。この場合、水平方向に角度を有する顔の画像を垂直方向に角度を有する顔の画像よりも多く学習データとして用いた場合、水平方向の角度の重みを相対的に小さくしてConf_FaceAngleが低くならないようにすることができる。 Here, the weight when adding the horizontal angle and the vertical angle may be arbitrarily set. For example, it can be set based on the characteristics of the face detection unit 106. For example, the face detection unit 106 is configured to detect a face region based on a machine-learned neural network. In this case, when a face image having an angle in the horizontal direction is used as training data more than an image of a face having an angle in the vertical direction, the weight of the angle in the horizontal direction is relatively small so that the Conf_FaceAngle does not become low. Can be.

顔面積に基づく信頼度Conf_FaceSizeは、画像全体に占める顔領域面積の比率が高いほど高くなる信頼度であり、例えば図6(b)に示す特性を持つ。図6(b)において、Th_FaceSize_Minは顔検出部106が検出可能な顔領域の最小サイズに対応する比率であり、Th_FaceSize_Maxは顔検出の信頼度が十分高いと見なすことのできる顔領域のサイズに対応する比率である。 The reliability Conf_FaceSize based on the face area is a reliability that increases as the ratio of the face area area to the entire image increases, and has the characteristics shown in FIG. 6B, for example. In FIG. 6B, Th_FaceSize_Min is a ratio corresponding to the minimum size of the face region that can be detected by the face detection unit 106, and Th_FaceSize_Max corresponds to the size of the face region that can be regarded as having sufficiently high reliability of face detection. The ratio to do.

顔器官検出信頼度Conf_FacePartsDetectは、顔検出部106が検出した器官領域の信頼度に基づく信頼度である。例えば、個々の器官領域の検出信頼度の平均値であってよい。 Face organ detection reliability Conf_FacePartsDetect is a reliability based on the reliability of the organ region detected by the face detection unit 106. For example, it may be the average value of the detection reliability of individual organ regions.

顔検出信頼度Conf_FaceDetectは顔検出部106が検出した顔領域の検出信頼度に基づく信頼度である。ここでは顔検出部106から得られる検出結果に含まれる信頼度をそのまま用いるものとするが、何らかの要因によって重み付けを行うなど、顔検出部106から得られる信頼度に基づいて顔検出信頼度Conf_FaceDetectを求めてもよい。 Face detection reliability Conf_FaceDetect is a reliability based on the detection reliability of the face region detected by the face detection unit 106. Here, the reliability included in the detection result obtained from the face detection unit 106 is used as it is, but the face detection reliability Conf_FaceDetect is set based on the reliability obtained from the face detection unit 106, such as weighting by some factor. You may ask.

顔明るさに基づく信頼度Conf_Luminaceは、顔領域の明るさが極端に暗いまたは明るい場合に低くなり、それ以外の明るさの範囲ではほぼ高い値を有する信頼度であり、例えば図6(c)に示す特性を持つ。信頼度は、Th_Luminance_Min(第1の閾値)より低いほど低下し、またTh_Luminance_Max(第2の閾値)より大きいほど低下する。Th_Luminance_Min、Th_Luminance_Maxは、例えば顔領域に含まれる画素の平均輝度値もしくは最高/最低輝度値について、顔領域内のコントラストが適正な範囲に保たれる明るさに基づいて定めた閾値である。例えば、最低輝度値が高い場合には顔領域の多くが白飛びしており、十分なコントラストが得られていないと考えられる。同様に、最高輝度値が低い場合には顔領域の多くが黒つぶれしており、やはり十分なコントラストが得られていないと考えられる。Th_Luminance_Min、Th_Luminance_Maxは例えば予め実験的に決定することができる。 The reliability based on face brightness Conf_Luminace is a reliability that decreases when the brightness of the face area is extremely dark or bright, and has a substantially high value in other brightness ranges, for example, FIG. 6 (c). It has the characteristics shown in. The reliability decreases as it is lower than Th_Luminance_Min (first threshold value), and decreases as it is larger than Th_Luminance_Max (second threshold value). Th_Luminance_Min and Th_Luminance_Max are threshold values determined based on the brightness at which the contrast in the face area is maintained in an appropriate range, for example, with respect to the average brightness value or the maximum / minimum brightness value of the pixels included in the face area. For example, when the minimum luminance value is high, most of the face area is overexposed, and it is considered that sufficient contrast is not obtained. Similarly, when the maximum luminance value is low, most of the face area is underexposed, and it is considered that sufficient contrast is not obtained. Th_Luminance_Min and Th_Luminance_Max can be determined experimentally in advance, for example.

顔遮蔽物に基づく信頼度Conf_FaceCoverは、顔領域上に占める遮蔽物領域の割合が高いほど低くなる信頼度であり、例えば図6(d)に示す特性を持つ。Th_FaceCoverは許容できる遮蔽物の占有率の上限値であり、予め例えば実験的に定めることができる。 The reliability Conf_FaceCover based on the face shield is a reliability that decreases as the ratio of the shield region to the face region increases, and has the characteristics shown in FIG. 6 (d), for example. Th_FaceCover is an upper limit of the allowable occupancy rate of the shield, and can be determined in advance, for example, experimentally.

以上説明した6種類の光源信頼度は、最低の信頼度から最高の信頼度を表す0から1までの値を取る。光源情報補正部303は、各信頼度に予め定められた重みを適用して加重加算し、光源強度の信頼度Conf_powerを算出する。光源強度の信頼度Conf_powerは0から1の値をとり、値が小さいほど仮想光源の強度を低く補正する。光源強度の信頼度を算出する際に光源信頼度に適用する重みの設定方法に特に制限はない。光源強度は仮想光の効果を適用した顔領域の明るさに大きく影響を与えるため、顔明るさに基づく信頼度Conf_Luminaceの重みを相対的に大きくすることができる。また、顔領域の面積が小さい場合は、顔領域から取得した陰影情報の信頼度が低い可能性があるため、顔面積に基づく信頼度Conf_FaceSizeの重みを相対的に大きくすることができる。これらは単なる例示であり、他の重み付けを行ってもよい。また、重み付けを行わずに光源信頼度の平均値を用いてもよい。基本的に、光源信頼度が低い場合には仮想光源の強度を抑えることにより、仮想光の付加が不自然な結果になることを抑制可能であれば、重みの設定方法に制限はない。 The six types of light source reliability described above take a value from 0 to 1 representing the lowest reliability to the highest reliability. The light source information correction unit 303 applies a predetermined weight to each reliability, weights and adds them, and calculates the reliability Conf_power of the light source intensity. The reliability of the light source intensity Conf_power takes a value from 0 to 1, and the smaller the value, the lower the intensity of the virtual light source is corrected. There is no particular limitation on the method of setting the weight applied to the light source reliability when calculating the reliability of the light source intensity. Since the light source intensity greatly affects the brightness of the face region to which the effect of virtual light is applied, the weight of the reliability Conf_Luminase based on the face brightness can be relatively increased. Further, when the area of the face area is small, the reliability of the shadow information acquired from the face area may be low, so that the weight of the reliability Conf_FaceSize based on the face area can be relatively increased. These are merely examples, and other weighting may be performed. Further, the average value of the light source reliability may be used without weighting. Basically, there is no limitation on the weight setting method as long as it is possible to suppress the addition of virtual light from an unnatural result by suppressing the intensity of the virtual light source when the reliability of the light source is low.

光源情報補正部303は、光源強度の信頼度Conf_powerを用い、(式4)に従って光源強度αを補正し、補正後の光源強度α’を得る。
α’=Conf_power×α ・・・(式4)
このように、光源情報補正部303は、光源強度の信頼度Conf_powerが第1の信頼度である場合よりも、第1の信頼度より信頼度が低い第2の信頼度の場合の方が仮想光による効果が弱くなるように、光源強度αを補正する。
The light source information correction unit 303 uses the light source intensity reliability Conf_power to correct the light source intensity α according to (Equation 4), and obtains the corrected light source intensity α'.
α'= Conf_power × α ・ ・ ・ (Equation 4)
As described above, the light source information correction unit 303 is more virtual in the case of the second reliability, which is lower in reliability than the first reliability, than in the case where the reliability Conf_power of the light source intensity is the first reliability. The light source intensity α is corrected so that the effect of light is weakened.

S504で光源情報補正部303は、光源信頼度に基づいて仮想光ベクトルLを補正する。図7を用いてS504の処理について説明する。図7は図4で説明した被写体401と仮想光源402の関係から、仮想光ベクトルLを補正する原理を示す図である。被写体401に仮想光源402から照射される仮想光の方向を示す仮想光ベクトルLは仮想光の照射目標点701をもつ。照射目標点701を通り、被写体401の代表法線Npの方向を持つ直線700と、仮想光ベクトルLのなす角θを算出する。算出したθに対して(式5)を用い、補正後の仮想光ベクトルL’が直線700となす角θ’を算出する。
θ’=Conf_angle×θ ・・・(式5)
In S504, the light source information correction unit 303 corrects the virtual light vector L based on the light source reliability. The processing of S504 will be described with reference to FIG. 7. FIG. 7 is a diagram showing a principle of correcting the virtual light vector L from the relationship between the subject 401 and the virtual light source 402 described in FIG. The virtual light vector L indicating the direction of the virtual light emitted from the virtual light source 402 to the subject 401 has an irradiation target point 701 of the virtual light. The angle θ formed by the straight line 700 passing through the irradiation target point 701 and having the direction of the representative normal line Np of the subject 401 and the virtual light vector L is calculated. Using (Equation 5) with respect to the calculated θ, the angle θ'that the corrected virtual light vector L'is formed with the straight line 700 is calculated.
θ'= Conf_angle × θ ・ ・ ・ (Equation 5)

ここでConf_angleは仮想光源の方向信頼度であり、強度信頼度と同様に0〜1の値をとる。このように、光源情報補正部303は、仮想光源の方向信頼度Conf_angleが第1の信頼度である場合よりも、第1の信頼度より信頼度が低い第2の信頼度の場合の方が仮想光による効果が弱くなるように、照射方向θを補正する。 Here, Conf_angle is the directional reliability of the virtual light source, and takes a value of 0 to 1 like the intensity reliability. As described above, the light source information correction unit 303 is more likely to have a second reliability, which is lower in reliability than the first reliability, than when the directional reliability Conf_angle of the virtual light source is the first reliability. The irradiation direction θ is corrected so that the effect of the virtual light is weakened.

信頼度Conf_angleが小さいほどθ’は0に近づき、被写体401の代表法線Npとの角度差が小さくなる特性を持つ。方向信頼度Conf_angleは、S503で説明した6種類の光源信頼度に対し予め定められた重みを適用して加重加算して得られる信頼度である。方向信頼度を求める際の重みは、強度信頼度を求める際に用いる重みとは異なってもよい。例えば、顔器官検出信頼度Conf_FacePartsDetectが低い場合、メモリ110から取得する法線情報の信頼性が低くなる可能性があるため、顔器官検出信頼度Conf_FacePartsDetectの重みを相対的に大きくする。これは単なる例示であり、他の重み付けを行ってもよい。また、重み付けを行わずに光源信頼度の平均値を用いてもよい。基本的に、光源信頼度が低い場合には仮想光源の照射方向を代表法線の方向に近く補正することで、仮想光の付加による陰影(コントラスト)の変化が不自然な結果になることを抑制可能であれば、重みの設定方法に制限はない。 The smaller the reliability Conf_angle, the closer θ'is to 0, and the smaller the angle difference from the representative normal Np of the subject 401. The directional reliability Conf_angle is a reliability obtained by applying a predetermined weight to the six types of light source reliability described in S503 and weighting and adding them. The weight for determining the directional reliability may be different from the weight used for determining the strength reliability. For example, when the facial organ detection reliability Conf_FacePartsDetect is low, the reliability of the normal information acquired from the memory 110 may be low, so that the weight of the facial organ detection reliability Conf_FacePartsDetect is relatively increased. This is just an example and other weighting may be done. Further, the average value of the light source reliability may be used without weighting. Basically, when the light source reliability is low, by correcting the irradiation direction of the virtual light source closer to the direction of the representative normal, the change in shadow (contrast) due to the addition of virtual light will result in an unnatural result. If it can be suppressed, there is no limitation on the weight setting method.

光源情報補正部303は、被写体401の代表法線Npの方向に延びる直線700と角θ’をなし、かつ|L’|と|L|が等しくなるよう補正後の仮想光ベクトルL’を求める。 The light source information correction unit 303 obtains the corrected virtual light vector L'so that the straight line 700 extending in the direction of the representative normal line Np of the subject 401 and the angle θ'are formed and | L'| and | L | are equal. ..

S505で光源情報補正部303は、補正後の光源強度α’および仮想光ベクトルL’を拡散反射成分算出部304に出力する。 In S505, the light source information correction unit 303 outputs the corrected light source intensity α'and the virtual light vector L'to the diffuse reflection component calculation unit 304.

上述のように、拡散反射成分算出部304は、光源情報補正部303で補正した光源強度α’および仮想光ベクトルL’を用いて、仮想光の効果として付加する拡散反射成分を算出する。そのため、付加処理部305で付加される仮想光の効果の強さは、光源の強度信頼度および方向信頼度に応じて変化する。例えば、顔領域や器官領域の検出信頼度が低い場合には、仮想光の強度が弱められるほか、仮想光の照射方向が法線方向に近くなることにより、仮想光による効果が抑制される。そのため、仮に顔領域や器官領域の検出に失敗している場合でも、仮想光の効果を付加した画像が不自然に目立つことを抑制することができる。 As described above, the diffuse reflection component calculation unit 304 calculates the diffuse reflection component to be added as an effect of virtual light by using the light source intensity α'corrected by the light source information correction unit 303 and the virtual light vector L'. Therefore, the intensity of the effect of the virtual light added by the addition processing unit 305 changes according to the intensity reliability and the direction reliability of the light source. For example, when the detection reliability of the face region or the organ region is low, the intensity of the virtual light is weakened and the irradiation direction of the virtual light becomes closer to the normal direction, so that the effect of the virtual light is suppressed. Therefore, even if the detection of the face region or the organ region fails, it is possible to suppress the image to which the effect of the virtual light is added from being unnaturally conspicuous.

仮想光の効果が抑制されない場合のリライティング処理を図8(a)に模式的に示す。ここで、画像の中心から右下に記載されている照明の絵は仮想光源の方向と強さを模式的に示すもので、実際には表示されない。 FIG. 8A schematically shows a rewriting process when the effect of virtual light is not suppressed. Here, the illumination picture shown in the lower right from the center of the image schematically shows the direction and intensity of the virtual light source, and is not actually displayed.

例えば検出される顔領域のサイズが小さくなった場合、上述した6つの信頼度のうち、少なくとも顔面積に基づく信頼度Conf_FaceSizeが図8(a)の場合よりも低下する。これにより、仮想光の強度が低く補正された状態を図8(b)に示している。図8(b)は仮想光の照射方向は補正されていないが、照射強度が低減されているため、顔の陰影を弱める効果が弱くなっている。したがって、顔領域の明るさを誤って検出した場合でも、誤った照射強度で仮想光の効果を付加することによる不自然さが生じることを抑制できる。 For example, when the size of the detected face region is reduced, at least the reliability Conf_FaceSize based on the face area is lower than that in the case of FIG. 8A, out of the above-mentioned six reliabilitys. As a result, the state in which the intensity of the virtual light is corrected to be low is shown in FIG. 8 (b). In FIG. 8B, the irradiation direction of the virtual light is not corrected, but since the irradiation intensity is reduced, the effect of weakening the shadow of the face is weakened. Therefore, even if the brightness of the face region is erroneously detected, it is possible to suppress the occurrence of unnaturalness due to the addition of the effect of virtual light with an erroneous irradiation intensity.

また、例えばコントラストが非常に強く、顔領域の陰になった部分で目領域が検出できない場合には、少なくとも顔面積に基づく信頼度Conf_FaceSizeが図8(a)の場合よりも低下する。これにより、仮想光の角度が法線方向に近づくように補正された状態を図8(c)に示している。図8(c)は仮想光の照射強度は補正されていないが、照射方向が顔の正面に近い方向に補正されているため、顔領域のより仮想光の効果が反映されるようになっている。したがって、目領域の検出失敗によって顔の姿勢の判定精度が低下した場合であっても、誤った照射方向で仮想光の効果を付加することによる不自然さが生じることを抑制できる。 Further, for example, when the contrast is very strong and the eye region cannot be detected in the shaded portion of the face region, at least the reliability Conf_FaceSize based on the face area is lower than that in the case of FIG. 8A. FIG. 8C shows a state in which the angle of the virtual light is corrected so as to approach the normal direction. In FIG. 8C, the irradiation intensity of the virtual light is not corrected, but the irradiation direction is corrected to be closer to the front of the face, so that the effect of the virtual light in the face area is reflected more. There is. Therefore, even when the accuracy of determining the posture of the face is lowered due to the failure to detect the eye region, it is possible to suppress the occurrence of unnaturalness due to the addition of the effect of virtual light in the wrong irradiation direction.

本実施形態によれば、画像処理によって検出された特徴領域に対して仮想光の効果を付加するリライティング処理を適用する画像処理装置において、特徴領域の検出信頼度に応じて仮想光の照射強度および/または照射方向を補正するようにした。具体的には、特徴領域の検出信頼度が低い場合には仮想光の効果が抑制されるように補正するようにした。そのため、信頼度が低い検出結果に基づいてリライティング処理を適用する必要がある場合であっても、リライティング処理が不自然になることを抑制できる。 According to the present embodiment, in an image processing apparatus that applies a rewriting process that adds an effect of virtual light to a feature area detected by image processing, the irradiation intensity of virtual light and the irradiation intensity of virtual light are determined according to the detection reliability of the feature area. / Or the irradiation direction was corrected. Specifically, when the detection reliability of the feature region is low, the correction is made so that the effect of the virtual light is suppressed. Therefore, even when it is necessary to apply the rewriting process based on the detection result having low reliability, it is possible to prevent the rewriting process from becoming unnatural.

(その他の実施形態)
上述の実施形態ではリライティング処理を適用する特徴領域が人物の顔領域であった。しかし、特徴領域は顔領域に限定されず、画像データから機械的に検出可能な任意の特徴領域であってよい。
(Other embodiments)
In the above embodiment, the feature area to which the rewriting process is applied is the face area of a person. However, the feature area is not limited to the face area, and may be any feature area that can be mechanically detected from the image data.

また、上述の実施形態では光源強度αを、光源信頼度に基づく強度信頼度Conf_powerに基づいて補正した。しかし、強度信頼度Conf_powerの代わりに被写体と光源の距離を示すノルム|L|を制御することで被写体に照射される仮想光の強度を制御してもよい。すなわち、強度を弱める場合には距離を延ばすように補正した|L’|を用いるようにすればよい。 Further, in the above-described embodiment, the light source intensity α is corrected based on the intensity reliability Conf_power based on the light source reliability. However, the intensity of the virtual light applied to the subject may be controlled by controlling the norm | L | indicating the distance between the subject and the light source instead of the intensity reliability Conf_power. That is, when the strength is weakened, | L'| corrected to extend the distance may be used.

さらに、上述の実施形態では強度信頼度および角度信頼度のいずれにおいても6種類の信頼度を用いて算出した。しかしながら、より少ない種類の信頼度に基づいて強度信頼度および角度信頼度を求めてもよい。例えば、6つの信頼度のうち、特に照射強度の決定に影響が大きい信頼度だけに基づいて照射強度の信頼度を求めたり、特に照射角度の決定に影響が大きい信頼度だけに基づいて照射角度の信頼度を求めたりしてもよい。 Further, in the above-described embodiment, both the strength reliability and the angle reliability were calculated using six types of reliability. However, strength reliability and angular reliability may be determined based on fewer types of reliability. For example, among the six reliabilitys, the reliability of the irradiation intensity is obtained only based on the reliability that has a large influence on the determination of the irradiation intensity, or the irradiation angle is based only on the reliability that has a large influence on the determination of the irradiation angle. You may ask for the reliability of.

例えば、照射強度を補正する強度信頼度Conf_powerについては、顔領域の明るさに基づく信頼度Conf_Luminanceおよび顔領域の面積に基づく信頼度Conf_FaceSizeの1つ以上に基づいて求めることができる。また、照射角度を補正する方向信頼度Conf_angleについては、顔器官検出信頼度Conf_FacePartsDetectに基づいて求めることができる。これらは例示であり、強度信頼度Conf_powerおよび方向信頼度Conf_angleは、それぞれ6種類の信頼度の1つ以上に基づいて求めることができる。 For example, the intensity reliability Conf_power that corrects the irradiation intensity can be obtained based on one or more of the reliability Conf_Luminance based on the brightness of the face region and the reliability Conf_FaceSize based on the area of the face region. Further, the directional reliability Conf_angle for correcting the irradiation angle can be obtained based on the facial organ detection reliability Conf_FacePartsDetect. These are examples, and the strength reliability Conf_power and the directional reliability Conf_angle can each be determined based on one or more of the six types of reliability.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本発明は上述した実施形態の内容に制限されず、発明の精神および範囲から離脱することなく様々な変更及び変形が可能である。したがって、発明の範囲を公にするために請求項を添付する。 The present invention is not limited to the contents of the above-described embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

101…光学系、102…撮像素子、103…A/D変換部、104…画像処理部、105…距離マップ生成部、106…顔検出部、107…遮蔽物検出部、108…記録部、109…制御部、110…メモリ、111…操作部、112…表示部 101 ... Optical system, 102 ... Image sensor, 103 ... A / D conversion unit, 104 ... Image processing unit, 105 ... Distance map generation unit, 106 ... Face detection unit, 107 ... Obstruction detection unit, 108 ... Recording unit, 109 ... control unit, 110 ... memory, 111 ... operation unit, 112 ... display unit

Claims (13)

画像データから特徴領域を検出する検出手段と、
前記特徴領域に対する仮想光の照射特性を決定する決定手段と、
前記特徴領域の検出信頼度に応じて、前記決定手段が決定した前記照射特性を補正する補正手段と、
前記補正手段が補正した前記照射特性に基づいて前記特徴領域に前記仮想光の効果を付加する付加手段と、を有し、
前記補正手段は、前記検出信頼度が第1の信頼度である場合よりも、前記第1の信頼度より信頼度が低い第2の信頼度の場合の方が前記仮想光による効果が弱くなるように、前記照射特性を補正する、
ことを特徴とする画像処理装置。
A detection means that detects a feature area from image data,
Determining means for determining the irradiation characteristics of virtual light for the characteristic region, and
A correction means for correcting the irradiation characteristics determined by the determination means according to the detection reliability of the feature region, and a correction means.
It has an additional means for adding the effect of the virtual light to the characteristic region based on the irradiation characteristic corrected by the correction means.
The effect of the virtual light of the correction means is weaker in the case of the second reliability, which is lower in reliability than the first reliability, than in the case of the detection reliability of the first reliability. To correct the irradiation characteristics,
An image processing device characterized by this.
前記照射特性が照射強度および照射方向を含み、前記補正手段は、前記照射強度および前記照射方向の少なくとも一方を補正することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the irradiation characteristics include an irradiation intensity and an irradiation direction, and the correction means corrects at least one of the irradiation intensity and the irradiation direction. 前記補正手段は、前記照射強度を低下させることにより前記仮想光による効果を弱めることを特徴とする請求項2に記載の画像処理装置。 The image processing apparatus according to claim 2, wherein the correction means weakens the effect of the virtual light by reducing the irradiation intensity. 前記補正手段は、前記仮想光が前記特徴領域に係る被写体をより正面から照射するように前記照射方向を補正することにより前記仮想光による効果を弱めることを特徴とする請求項2または3に記載の画像処理装置。 The correction means according to claim 2 or 3, wherein the correction means weakens the effect of the virtual light by correcting the irradiation direction so that the virtual light irradiates the subject related to the feature region from the front. Image processing equipment. 前記検出信頼度は、前記特徴領域の検出結果に基づく被写体の角度が、前記被写体の正面向きの角度に対して大きいほど低下することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The detection reliability is according to any one of claims 1 to 4, wherein the angle of the subject based on the detection result of the feature region decreases as the angle of the subject increases with respect to the frontal angle of the subject. Image processing equipment. 前記検出信頼度は、前記特徴領域に含まれる部位の検出信頼度が低いほど低下することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the detection reliability decreases as the detection reliability of a portion included in the feature region decreases. 前記検出信頼度は、前記特徴領域の面積が小さいほど低下することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the detection reliability decreases as the area of the feature region becomes smaller. 前記検出信頼度は、前記特徴領域の明るさが第1の閾値より低いほど、また第2の閾値より大きいほど低下することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The image according to any one of claims 1 to 4, wherein the detection reliability decreases as the brightness of the feature region becomes lower than the first threshold value and becomes larger than the second threshold value. Processing equipment. さらに、前記画像データから前記特徴領域の一部を隠す遮蔽物の領域を検出する検出手段を有し、
前記検出信頼度は、前記特徴領域において前記遮蔽物の領域が占める割合が高いほど低くなることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
Further, it has a detecting means for detecting an area of a shield that hides a part of the feature area from the image data.
The image processing apparatus according to any one of claims 1 to 4, wherein the detection reliability decreases as the proportion of the shield region occupied in the feature region increases.
前記検出信頼度が、前記特徴領域の角度に基づく信頼度、前記特徴領域の面積に基づく信頼度、前記特徴領域に含まれる部位の検出信頼度、前記特徴領域の検出信頼度、前記特徴領域の明るさに基づく信頼度、および前記特徴領域が隠されている割合に基づく信頼度の1つ以上に基づくことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The detection reliability is the reliability based on the angle of the feature region, the reliability based on the area of the feature region, the detection reliability of the portion included in the feature region, the detection reliability of the feature region, and the detection reliability of the feature region. The image processing apparatus according to any one of claims 1 to 4, wherein the reliability is based on one or more of the reliability based on the brightness and the reliability based on the ratio in which the feature region is hidden. 撮像素子と、
前記撮像素子を用いて得られた画像データに対して仮想光の効果を付加する請求項1から10のいずれか1項に記載の画像処理装置と、
を有する撮像装置。
Image sensor and
The image processing apparatus according to any one of claims 1 to 10, wherein the effect of virtual light is added to the image data obtained by using the image sensor.
An imaging device having.
画像処理装置が実行する画像処理方法であって、
画像データから特徴領域を検出する検出工程と、
前記特徴領域に対する仮想光の照射特性を決定する決定工程と、
前記特徴領域の検出信頼度に応じて、前記決定工程で決定した前記照射特性を補正する補正工程と、
前記補正工程で補正された前記照射特性に基づいて前記特徴領域に前記仮想光の効果を付加する付加工程と、を有し、
前記補正工程では、前記検出信頼度が第1の信頼度である場合よりも、前記第1の信頼度より信頼度が低い第2の信頼度の場合の方が前記仮想光による効果が弱くなるように、前記照射特性を補正する、
ことを特徴とする画像処理方法。
An image processing method executed by an image processing device.
A detection process that detects a feature area from image data,
A determination step for determining the irradiation characteristics of virtual light for the characteristic region, and
A correction step of correcting the irradiation characteristics determined in the determination step according to the detection reliability of the feature region, and a correction step of correcting the irradiation characteristics.
It has an additional step of adding the effect of the virtual light to the feature region based on the irradiation characteristics corrected in the correction step.
In the correction step, the effect of the virtual light is weaker in the case of the second reliability, which is lower in reliability than the first reliability, than in the case where the detection reliability is the first reliability. To correct the irradiation characteristics,
An image processing method characterized by that.
コンピュータを、請求項1から10のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。 A program for causing a computer to function as each means included in the image processing apparatus according to any one of claims 1 to 10.
JP2019239278A 2019-12-27 2019-12-27 Image processing device and image processing method Active JP7455578B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019239278A JP7455578B2 (en) 2019-12-27 2019-12-27 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019239278A JP7455578B2 (en) 2019-12-27 2019-12-27 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2021108023A true JP2021108023A (en) 2021-07-29
JP7455578B2 JP7455578B2 (en) 2024-03-26

Family

ID=76968223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019239278A Active JP7455578B2 (en) 2019-12-27 2019-12-27 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7455578B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104330A (en) 2007-10-22 2009-05-14 Fujitsu Ten Ltd Hidden vehicle detection system, road side device, onboard device and hidden vehicle detection method
JP6442209B2 (en) 2014-09-26 2018-12-19 キヤノン株式会社 Image processing apparatus and control method thereof
JP6718253B2 (en) 2016-02-23 2020-07-08 キヤノン株式会社 Image processing apparatus and image processing method
JP6937603B2 (en) 2017-04-21 2021-09-22 キヤノン株式会社 Image processing equipment and its control methods, programs, and storage media

Also Published As

Publication number Publication date
JP7455578B2 (en) 2024-03-26

Similar Documents

Publication Publication Date Title
US10997696B2 (en) Image processing method, apparatus and device
JP6442209B2 (en) Image processing apparatus and control method thereof
US9801537B2 (en) Image processing device and method, eye fundus image processing device, image photographing method, and eye fundus image photographing device and method
US10805508B2 (en) Image processing method, and device
JP6218389B2 (en) Image processing apparatus and image processing method
JP2016213718A (en) Image processing apparatus, image processing method, program, and storage medium
JP2018041380A (en) Image processing apparatus, image processing method, and program
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
US10863103B2 (en) Setting apparatus, setting method, and storage medium
JP2017152866A (en) Image processing system and image processing method
JP2019205055A (en) Image processing apparatus, image processing apparatus control method, and program
JP2019179463A (en) Image processing device, control method thereof, program, and recording medium
JP2018182700A (en) Image processing apparatus, control method of the same, program, and storage medium
JP2018182699A (en) Image processing apparatus, control method of the same, program, and storage medium
JP7455578B2 (en) Image processing device and image processing method
JP7311995B2 (en) IMAGE PROCESSING APPARATUS AND IMAGE PROCESSING METHOD, PROGRAM, STORAGE MEDIUM
JP2018185576A (en) Image processing device and image processing method
JP2019004290A (en) Image processing apparatus, imaging apparatus, image processing method and program
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
JP2019149719A (en) Image processing apparatus and method, and imaging apparatus
JP2019129469A (en) Image processing device
JP2014155000A (en) Image processing apparatus, control method for the same, and control program
US20240031545A1 (en) Information processing apparatus, information processing method, and storage medium
JP7356255B2 (en) Image processing device and its processing method, imaging device, program, storage medium
JP2019037004A (en) Image processing apparatus, control method thereof, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R151 Written notification of patent or utility model registration

Ref document number: 7455578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151