JP7534866B2 - Image processing device and method, program, and storage medium - Google Patents

Image processing device and method, program, and storage medium Download PDF

Info

Publication number
JP7534866B2
JP7534866B2 JP2020075609A JP2020075609A JP7534866B2 JP 7534866 B2 JP7534866 B2 JP 7534866B2 JP 2020075609 A JP2020075609 A JP 2020075609A JP 2020075609 A JP2020075609 A JP 2020075609A JP 7534866 B2 JP7534866 B2 JP 7534866B2
Authority
JP
Japan
Prior art keywords
area
subject
region
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020075609A
Other languages
Japanese (ja)
Other versions
JP2021175036A (en
Inventor
貴明 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020075609A priority Critical patent/JP7534866B2/en
Priority to US17/231,921 priority patent/US11842467B2/en
Priority to CN202110430659.0A priority patent/CN113542585A/en
Publication of JP2021175036A publication Critical patent/JP2021175036A/en
Priority to US18/504,692 priority patent/US20240078650A1/en
Application granted granted Critical
Publication of JP7534866B2 publication Critical patent/JP7534866B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/73Colour balance circuits, e.g. white balance circuits or colour temperature control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、デジタルカメラなどで撮影された画像に対して領域ごとに画像処理を行う画像処理装置に関するものである。 The present invention relates to an image processing device that performs image processing on an area-by-area basis on an image captured by a digital camera or the like.

従来より、被写体領域を抽出し被写体領域の明るさを補正する補正方法や、被写体領域以外の階調を補正する画像処理装置が提案されている。 Conventionally, correction methods have been proposed that extract a subject area and correct the brightness of the subject area, as well as image processing devices that correct the gradation of areas other than the subject area.

例えば、特許文献1では、被写体領域を決定し、被写体領域のライティングを補正する技術について開示されている。仮想光源を用いたリライティング処理により、環境光によって生じた影などの暗部領域を明るくし、好ましい画像を得ることが可能となる。 For example, Patent Document 1 discloses a technique for determining a subject area and correcting the lighting of the subject area. By using a relighting process that uses a virtual light source, it is possible to brighten dark areas such as shadows caused by ambient light, thereby obtaining a desirable image.

このような場合、被写体領域を検出する方法として、距離情報を取得し、主要被写体の距離値に対して所定の範囲内の距離にある領域を被写体領域として検出する方法が知られている。 In such cases, a method for detecting the subject area is known in which distance information is acquired and an area that is within a predetermined distance range relative to the distance value of the main subject is detected as the subject area.

距離情報の取得方式としては、複数の方式が挙げられるが、その代表的な手法として、複数の視点位置から画像を取得し、その各画像中の画素の対応関係から算出される視差を用いて、三角測量の原理に基づき距離を算出するステレオ方式がある。距離情報を取得して被写体領域を検出することにより、手前に存在する被写体領域と奥に存在する被写体領域を区別することが可能となる。 There are several methods for acquiring distance information, but a typical method is the stereo method, in which images are acquired from multiple viewpoints, and distance is calculated based on the principle of triangulation using the parallax calculated from the pixel correspondence in each image. By acquiring distance information and detecting the subject area, it becomes possible to distinguish between subject areas in the foreground and those in the background.

例えば、一つの仮想光源を手前の被写体にあてた場合と、奥の被写体にあてた場合とでは、仮想光源から被写体までの距離差に応じて仮想光源の照射量(強度)を変えるといった制御が可能となる。 For example, when a virtual light source is directed at a subject in the foreground and when it is directed at a subject in the background, it is possible to control the amount of illumination (intensity) of the virtual light source depending on the difference in distance from the virtual light source to the subject.

また、特許文献2には、複数の被写体領域を検出し、主被写体の領域および主被写体以外の領域などのように、被写体領域ごとに階調補正を行う方法が開示されている。 Patent Document 2 also discloses a method for detecting multiple subject regions and performing gradation correction for each subject region, such as the region of the main subject and regions other than the main subject.

これらの方法で用いられている被写体領域の推定方法には、顔検出の結果から人体領域を推定する方法、機械学習を用いて被写体領域を推定する手法、距離情報を取得して被写体領域を検出する方法など、複数の被写体領域の推定方法がある。 The subject area estimation methods used in these methods include a method of estimating the human body area from the results of face detection, a method of estimating the subject area using machine learning, and a method of detecting the subject area by obtaining distance information.

しかし、被写体領域の推定がうまくいかない場合、人物領域の明るさを補正する場合に、背景領域まで明るく補正してしまったり、背景領域を補正してコントラストを改善する場合に、背景領域のみならず主被写体領域までコントラストを向上させてしまうなど、不自然な補正を行ってしまうことがあった。 However, if the subject area estimation does not go well, unnatural corrections can be made, such as when correcting the brightness of a person area, the background area also being brightened, or when correcting the background area to improve contrast, the contrast can be improved not only in the background area but also in the main subject area.

それらの課題に対して、特許文献1には、撮影条件と被写体条件の関係性、および被写体の画像解析の結果から、被写体領域情報を被写体距離情報から取得する手段と被写体領域情報を画像から取得する手段を切り替える方法について開示されている。 To address these issues, Patent Document 1 discloses a method for switching between a means for acquiring subject area information from subject distance information and a means for acquiring subject area information from an image, based on the relationship between the shooting conditions and the subject conditions, and the results of image analysis of the subject.

特開2018-182700号公報JP 2018-182700 A 特開2014-153959号公報JP 2014-153959 A

しかしながら、顔検出の情報や被写体の連続性などの画像情報を用いた被写体領域の推定方法では、肌や洋服の色と背景色の境界が紛らわしい場合に正しく被写体領域を推定することが難しい。機械学習を用いた被写体領域検出方法においても、同様の課題を有している。距離情報を用いる手法においては、被写体と近い距離にある被写体などに対して正しく被写体領域の推定ができないという問題がある。 However, subject area estimation methods that use image information such as face detection information and subject continuity have difficulty correctly estimating the subject area when the boundaries between the skin or clothing color and the background color are ambiguous. Subject area detection methods that use machine learning have the same problem. Methods that use distance information have the problem of being unable to correctly estimate the subject area for objects that are close to the subject.

本発明は上述した課題に鑑みてなされたものであり、その目的は、被写体の領域ごとに画像補正を行う場合に、より自然な補正を行うことができる画像処理装置を提供することである。 The present invention has been made in consideration of the above-mentioned problems, and its purpose is to provide an image processing device that can perform more natural correction when performing image correction for each area of a subject.

本発明に係わる画像処理装置は、画像から被写体領域を検出する検出手段と、前記被写体領域に対して、仮想光源により明るさを補正するリライティング処理を行う第1の画像処理手段と、前記被写体領域以外の領域に対して、コントラスト補正処理を行う第2の画像処理手段と、前記被写体領域において、前記リライティング処理を行う対象となる、前記被写体領域に近い大きさで、且つ前記被写体領域よりも小さい第1の基準領域を決定する第1の決定手段と、前記コントラスト補正処理を行う対象となる領域を決定するために、前記被写体領域に近い大きさで、且つ前記被写体領域よりも大きい第2の基準領域を決定する第2の決定手段と、を備えることを特徴とする。 The image processing device of the present invention is characterized in that it comprises a detection means for detecting a subject area from an image, a first image processing means for performing a relighting process on the subject area to correct brightness using a virtual light source , a second image processing means for performing a contrast correction process on an area other than the subject area, a first determination means for determining a first reference area in the subject area , which is close in size to the subject area and smaller than the subject area and which is to be subjected to the relighting process , and a second determination means for determining a second reference area , which is close in size to the subject area and larger than the subject area, in order to determine the area to be subjected to the contrast correction process.

本発明によれば、被写体の領域ごとに画像補正を行う場合に、より自然な補正を行うことが可能となる。 The present invention makes it possible to perform more natural corrections when performing image corrections for each area of a subject.

本発明の一実施形態に係わるデジタルカメラの構成を示すブロック図。1 is a block diagram showing the configuration of a digital camera according to an embodiment of the present invention; 一実施形態における処理の流れを示したブロック図。FIG. 2 is a block diagram showing a process flow according to an embodiment. 一実施形態における背景領域補正処理の流れを示すブロック図。FIG. 4 is a block diagram showing the flow of background region correction processing in an embodiment. 一実施形態における人物領域補正処理の流れを示すブロック図。FIG. 11 is a block diagram showing the flow of a person area correction process according to an embodiment. 本発明が適用される撮影シーンを想定した概念図。1 is a conceptual diagram illustrating a shooting scene to which the present invention is applied.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The following embodiments are described in detail with reference to the attached drawings. Note that the following embodiments do not limit the invention according to the claims. Although the embodiments describe multiple features, not all of these multiple features are necessarily essential to the invention, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations are omitted.

以下では、本発明の画像処理装置の一実施形態であるデジタルカメラについて説明する。本実施形態では、画像処理装置の一例としてデジタルカメラ(撮像装置)を挙げて説明するが、本発明の画像処理装置は撮像装置に限定されず、例えばパーソナルコンピュータ(PC)などであってもよい。 The following describes a digital camera, which is one embodiment of an image processing device of the present invention. In this embodiment, a digital camera (imaging device) is described as an example of an image processing device, but the image processing device of the present invention is not limited to an imaging device and may be, for example, a personal computer (PC), etc.

一般的に逆光シーンにおいて人物撮影を行う場合、人物被写体が適正露出となるように撮影を行うと、背景領域の露出がオーバーとなる。また、逆に背景領域の露出が適正露出となるように撮影を行うと、人物領域の露出がアンダーとなる。そのような場合は、人物領域が適正露出となる撮影条件と背景領域が適正露出となる撮影条件の中間的な撮影条件で撮影を行うことになる。しかしながら、そのようにして撮影された画像は、人物も暗く、背景のコントラストももの足りない画像となってしまう。図5(a)は、本発明が適用される撮影シーンを想定した概念図である。背景のコントラストが下がり、人物被写体が暗く撮影されている様子を示している。 In general, when photographing a person in a backlit scene, if the photograph is taken so that the person subject is properly exposed, the background area will be overexposed. Conversely, if the photograph is taken so that the background area is properly exposed, the person area will be underexposed. In such a case, the photograph will be taken under shooting conditions that are intermediate between the shooting conditions in which the person area is properly exposed and the shooting conditions in which the background area is properly exposed. However, an image taken in this way will have a dark person and insufficient contrast in the background. Figure 5(a) is a conceptual diagram that assumes a shooting scene to which the present invention is applied. It shows a situation in which the contrast of the background is reduced and the person subject is photographed dark.

このような画像でも見栄えよく補正するためには、被写体領域の明るさを明るく補正するととともに、背景領域のコントラストを向上させる処理を行うことが望ましい。特に背景領域が遠景の山や海や湖などの風景シーンなどにおいては、空気中の水蒸気や霞の影響により、コントラストが低下することが多いため、背景領域のコントラストを向上させたいという要望は多い。 To make such images look good, it is desirable to brighten the subject area and also to perform processing to improve the contrast of the background area. In particular, in landscape scenes where the background area is a distant mountain, ocean, or lake, the effects of water vapor and haze in the air often reduce contrast, so there is a strong demand to improve the contrast of the background area.

本実施形態では、背景領域補正にはコントラストを向上させる補正処理を行い、被写体領域には、被写体の明るさや被写体に照射される光源の方向など、ライティングを補正するリライティング補正処理を行う。 In this embodiment, the background region is corrected by a correction process that improves contrast, and the subject region is corrected by a relighting correction process that corrects lighting, such as the brightness of the subject and the direction of the light source illuminating the subject.

<デジタルカメラの構成>
図1は、本実施形態のデジタルカメラ100の構成を示すブロック図である。
<Digital Camera Configuration>
FIG. 1 is a block diagram showing the configuration of a digital camera 100 according to the present embodiment.

図1に示すデジタルカメラ100において、ズームレンズ、フォーカスレンズを含むレンズ群101(撮像光学系)、及び、絞り機能を備えるシャッター102を介して入射した光は、撮像部103において光電変換される。撮像部103は、CCDやCMOS素子などの撮像素子を備えて構成され、光電変換により得られた電気信号は、画像信号としてA/D変換器104へ出力される。A/D変換器104は、撮像部103から出力されるアナログ画像信号をデジタル画像信号(画像データ)に変換し、画像処理部105に出力する。 In the digital camera 100 shown in FIG. 1, light incident via a lens group 101 (image capture optical system) including a zoom lens and a focus lens, and a shutter 102 with an aperture function is photoelectrically converted in an image capture unit 103. The image capture unit 103 is configured with image capture elements such as CCD and CMOS elements, and the electrical signal obtained by photoelectric conversion is output as an image signal to an A/D converter 104. The A/D converter 104 converts the analog image signal output from the image capture unit 103 into a digital image signal (image data) and outputs it to an image processing unit 105.

画像処理部105は、A/D変換器104からの画像データ、または、メモリ制御部107を介して画像メモリ106から読み出された画像データに対し、ホワイトバランスなどの色変換処理、γ処理、輪郭強調処理、色補正処理などの各種画像処理を行う。画像処理部105から出力された画像データは、メモリ制御部107を介して画像メモリ106に書き込まれる。画像メモリ106は、画像処理部105から出力された画像データや、表示部109に表示するための画像データを格納する。顔・顔器官検出部113は、撮影された画像から、人物の顔及び器官が存在する顔領域及び顔器官領域を検出する。 The image processing unit 105 performs various image processing such as color conversion processing such as white balance, gamma processing, contour enhancement processing, and color correction processing on image data from the A/D converter 104 or image data read from the image memory 106 via the memory control unit 107. The image data output from the image processing unit 105 is written to the image memory 106 via the memory control unit 107. The image memory 106 stores the image data output from the image processing unit 105 and image data to be displayed on the display unit 109. The face/facial organ detection unit 113 detects facial areas and facial organ areas where a person's face and organs are present from the captured image.

画像処理部105では、顔・顔器官検出部113の顔検出結果や顔器官検出結果、及び撮像した画像データを用いて所定の評価値算出処理を行い、得られた評価値に基づいてシステム制御部50が露光制御、焦点調節制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理などを行う。 The image processing unit 105 performs a predetermined evaluation value calculation process using the face detection results and face organ detection results of the face and face organ detection unit 113 and the captured image data, and the system control unit 50 performs exposure control and focus adjustment control based on the obtained evaluation value. This allows TTL (through-the-lens) type AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, etc. to be performed.

また、D/A変換器108は、画像メモリ106に格納されている表示用のデジタルの画像データをアナログ信号に変換して表示部109に供給する。表示部109は、LCD等の表示器上に、D/A変換器108からのアナログ信号に応じた表示を行う。 The D/A converter 108 also converts the digital image data for display stored in the image memory 106 into an analog signal and supplies it to the display unit 109. The display unit 109 displays on a display device such as an LCD in accordance with the analog signal from the D/A converter 108.

コーデック部110は、画像メモリ106に格納された画像データをJPEGやMPEGなどの規格に基づいてそれぞれ圧縮符号化する。システム制御部50は符号化した画像データを、インタフェース(I/F)111を介して、メモリカードやハードディスク等の記録媒体112に格納する。また、I/F111を介して記録媒体112から読み出された画像データをコーデック部110により復号して伸長し、画像メモリ106に格納する。そして、画像メモリ106に格納された画像データを、メモリ制御部107、D/A変換器108を介して表示部109に表示することで、画像を再生表示することができる。 The codec unit 110 compresses and encodes the image data stored in the image memory 106 based on standards such as JPEG and MPEG. The system control unit 50 stores the encoded image data in a recording medium 112 such as a memory card or a hard disk via an interface (I/F) 111. The codec unit 110 also decodes and expands image data read from the recording medium 112 via the I/F 111, and stores the image in the image memory 106. The image data stored in the image memory 106 can then be displayed on the display unit 109 via the memory control unit 107 and D/A converter 108, allowing the image to be reproduced and displayed.

リライティング処理部114は、撮影された画像に仮想光源を当てて明るさを補正するリライティング処理(再照明処理)を行う。画像合成処理部115は、2種類の画像を合成マップに従い合成する。合成マップとは2種類の画像の合成比率を表したものである。 The relighting processing unit 114 performs relighting processing (re-illumination processing) to correct the brightness of the captured image by applying a virtual light source to it. The image synthesis processing unit 115 synthesizes two types of images according to a synthesis map. The synthesis map represents the synthesis ratio of the two types of images.

システム制御部50は、デジタルカメラ100のシステム全体を制御する。不揮発性メモリ121は、EEPROMなどのメモリにより構成され、システム制御部50の処理に必要なプログラムやパラメータなどを格納する。システム制御部50は、不揮発性メモリ121に記録されたプログラム、及び、システム制御部50の動作用の定数、変数をシステムメモリ122に展開して実行することで、後述する本実施形態の各処理を実現する。操作部120は、ユーザによるメニューの設定や画像選択などの操作を受け付ける。 The system control unit 50 controls the entire system of the digital camera 100. The non-volatile memory 121 is composed of memory such as an EEPROM, and stores programs and parameters necessary for processing by the system control unit 50. The system control unit 50 implements each process of this embodiment, which will be described later, by expanding the programs recorded in the non-volatile memory 121 and the constants and variables for the operation of the system control unit 50 into the system memory 122 and executing them. The operation unit 120 accepts operations such as menu settings and image selection by the user.

<画像補正処理の流れ>
図2は、本実施形態における処理の流れを示したブロック図である、
図2において、入力画像は、画像処理部105に入力され、参照画像が生成される。ここで生成される参照画像は、顔検出や人体領域を推定するための参照画像であり、ホワイトバランスや色味などがユーザにより設定された画像とは異なる、顔検出や領域検出などに適した画質設定がなされた画像である。例えばオートホワイトバランス、色味・彩度:標準設定、暗部補正:強め、明るさ設定:明るめなど、暗部が多い画像や彩度が高い画像においても、顔や人体の領域を検出しやすい設定にするとよい。
<Flow of image correction process>
FIG. 2 is a block diagram showing the process flow in this embodiment.
2, an input image is input to an image processing unit 105, and a reference image is generated. The reference image generated here is a reference image for face detection and estimation of a human body region, and is an image with image quality settings suitable for face detection, region detection, etc., which are different from the image with white balance, color, etc. set by the user. For example, it is preferable to set the settings to make it easy to detect a face or human body region even in an image with many dark areas or high color saturation, such as auto white balance, color and saturation: standard setting, dark area correction: strong, brightness setting: bright, etc.

画像処理部105で生成された参照画像を用いて、顔・顔器官検出部113において顔領域情報203を生成する。顔領域情報203は、顔領域の輪郭情報、顔の中の目・鼻・口などの顔器官の位置情報や画像に対する角度、それらの位置情報に対する検出精度を示す顔検出信頼度などの情報である。顔や顔器官検出方法には、一般的にテンプレートマッチングを用いた手法や機械学習を用いた手法などが用いられる。 The face and facial organ detection unit 113 generates facial area information 203 using the reference image generated by the image processing unit 105. The facial area information 203 includes information such as contour information of the facial area, position information of facial organs such as the eyes, nose, and mouth in the face and their angles relative to the image, and face detection reliability indicating the detection accuracy for such position information. Generally, methods using template matching or machine learning are used for detecting faces and facial organs.

背景コントラスト補正領域決定部300は、顔情報と参照画像とに基づいて、コントラストを向上させる領域を決定する。コントラスト強調部310は、背景コントラスト補正領域決定部300で決定されたコントラスト強調領域(コントラスト補正処理領域)のコントラストを向上させる。 The background contrast correction area determination unit 300 determines an area in which contrast is to be improved based on face information and a reference image. The contrast enhancement unit 310 enhances the contrast of the contrast enhancement area (contrast correction processing area) determined by the background contrast correction area determination unit 300.

リライティング補正領域決定部400は、顔情報と参照画像とに基づいて、ライティング補正を行う領域を決定する。リライティング処理部410は、リライティング補正領域決定部400で決定されたライティング補正領域に対してリライティング処理を行う。 The relighting correction area determination unit 400 determines the area for which lighting correction is to be performed based on the face information and the reference image. The relighting processing unit 410 performs relighting processing on the lighting correction area determined by the relighting correction area determination unit 400.

コントラスト強調処理部310で行うコントラスト強調処理は、一般的に用いられる方法でよく、階調変換特性として暗部と明部の比率を向上させるガンマ処理やシャープネス強調処理、ローカルコントラストのみを強調させる処理などが用いられる。本実施形態においてはローカルコントラスト強調処理を適用するものとする。 The contrast enhancement processing performed by the contrast enhancement processing unit 310 may be a commonly used method, and may be gamma processing or sharpness enhancement processing that improves the ratio of dark and light areas as a tone conversion characteristic, or processing that enhances only local contrast. In this embodiment, local contrast enhancement processing is applied.

図3は、本実施形態における背景コントラスト補正領域決定部300およびコントラスト強調部310の処理の流れを示したブロック図である。 Figure 3 is a block diagram showing the processing flow of the background contrast correction area determination unit 300 and the contrast enhancement unit 310 in this embodiment.

図3において、背景補正用被写体領域設定部301は、顔領域情報203から背景補正を行うための被写体領域を決定する。背景補正用人物領域特定部302は、参照画像202と背景補正用被写体領域設定部301により決定された被写体領域から背景領域の特定を行い、背景コントラスト補正領域マップ210を生成する。合成処理部115は背景コントラスト補正領域マップ210の領域・レベル情報に基づいて領域ごとの合成処理比率を決定し、入力画像201およびコントラスト強調処理部311の出力画像の合成処理を行う。 In FIG. 3, the subject region setting unit for background correction 301 determines the subject region for background correction from the face region information 203. The person region specification unit for background correction 302 specifies the background region from the reference image 202 and the subject region determined by the subject region setting unit for background correction 301, and generates the background contrast correction region map 210. The synthesis processing unit 115 determines the synthesis processing ratio for each region based on the region and level information of the background contrast correction region map 210, and performs synthesis processing of the input image 201 and the output image of the contrast enhancement processing unit 311.

背景補正用人物領域特定部302により生成される背景コントラスト補正領域マップ210は、背景領域と判定された領域を示した領域情報であり、人物領域として判定されなかった部分の情報である。つまり、人物領域と判定された領域と人物と判定した判定レベルを反転させた領域情報であり、合成処理部115においてコントラスト補正の補正レベルを示した領域情報に相当する情報である。 The background contrast correction area map 210 generated by the background correction person area identification unit 302 is area information indicating areas determined to be background areas, and is information on parts not determined to be person areas. In other words, it is area information in which the area determined to be a person area and the determination level at which it was determined to be a person are inverted, and is information equivalent to area information indicating the correction level of contrast correction in the synthesis processing unit 115.

図4は、図2におけるリライティング補正領域決定部400およびリライティング処理部410におけるリライティング処理の流れを示したブロック図である。 Figure 4 is a block diagram showing the flow of relighting processing in the relighting correction area determination unit 400 and the relighting processing unit 410 in Figure 2.

被写体領域設定部401は、顔領域情報203に基づいて、被写体領域の設定を行う。被写体領域特定部402は、被写体領域設定部401によって設定された被写体領域と参照画像202を用いて、リライティング補正領域マップ220を生成する。 The subject area setting unit 401 sets the subject area based on the face area information 203. The subject area identification unit 402 generates the relighting correction area map 220 using the subject area set by the subject area setting unit 401 and the reference image 202.

仮想光源算出部411は、入力画像201および顔領域情報203を用いて、仮想光源の光源情報を生成する。仮想光源成分演算部412は、仮想光源算出部411によって算出された仮想光源情報とリライティング補正領域マップ220を用いて、リライティングゲインマップ221を生成する。リライティングゲインマップ221は、画像領域ごとに被写体領域の明るさを補正する補正ゲインが表現されたゲインマップである。ゲイン乗算部413は、コントラスト乗算後画像211に対して、リライティングゲインマップに応じて、被写体領域毎にゲインの乗算を行う。 The virtual light source calculation unit 411 generates light source information of a virtual light source using the input image 201 and the face region information 203. The virtual light source component calculation unit 412 generates a relighting gain map 221 using the virtual light source information calculated by the virtual light source calculation unit 411 and the relighting correction region map 220. The relighting gain map 221 is a gain map that expresses a correction gain that corrects the brightness of the subject region for each image region. The gain multiplication unit 413 multiplies the contrast-multiplied image 211 by a gain for each subject region according to the relighting gain map.

なお、仮想光源算出部411における仮想光源の光源情報の生成方法および仮想光源成分412における仮想光源成分の演算方法については、特許文献1に詳しく説明されているため、本実施形態においては説明を省略する。ただし、特許文献1は、信号処理回路の処理の中でリライティング処理を実施しているが、処理のフローとしてデガンマ処理後にリライティング処理を行っており、本実施形態における信号処理の実施前にリライティング処理を行うことはほぼ同等の効果が得られる。 The method of generating light source information of a virtual light source in virtual light source calculation unit 411 and the method of calculating a virtual light source component in virtual light source component 412 are described in detail in Patent Document 1, and therefore will not be described in this embodiment. However, Patent Document 1 performs relighting processing during processing in a signal processing circuit, but the relighting processing is performed after degamma processing in the processing flow, and performing relighting processing before performing signal processing in this embodiment can provide approximately the same effect.

<人体基準画像適用方法>
次に、図3における背景補正用被写体領域設定部301および図4における被写体領域設定部401における被写体領域設定方法について説明する。
<How to apply human body reference image>
Next, a subject region setting method in the background correction subject region setting unit 301 in FIG. 3 and the subject region setting unit 401 in FIG. 4 will be described.

本実施形態においては、あらかじめ顔と人体領域を含めた人物基準画像(人物基準領域)を設定する。人物基準画像の顔領域は顔の目や鼻・口といった顔器官情報を有する。人物基準画像の器官情報と撮影画像から検出された顔の目や鼻・口といった器官情報の位置が合致するように、人物基準画像の拡縮や回転を行うことで、実画像の領域に適合させる。また人物基準画像は、人物領域の周辺になるに従い人物領域の判定レベルを下げるようなグラデーションを有するように設定される。 In this embodiment, a person reference image (person reference region) including the face and human body regions is set in advance. The face region of the person reference image has facial organ information such as the eyes, nose, and mouth. The person reference image is enlarged, reduced, and rotated so that the positions of the organ information in the person reference image match those of the facial organ information such as the eyes, nose, and mouth detected from the captured image, thereby adapting it to the region of the actual image. In addition, the person reference image is set to have a gradation that decreases the judgment level of the person region as it approaches the periphery of the person region.

背景領域補正用の人物基準画像は、一般的な人体モデルに比べて体部分の人体領域を広く設定したモデル(被写体モデル画像)を用い、被写体領域設定部401で用いる人物基準画像は、一般的な人体モデルに比べて体部分の人体領域を狭く設定したモデルを用いる。人物領域の頭部に当たる領域についても同様に、背景領域補正用の人物基準画像では、一般的な人体モデルに比べて頭部の領域を広く設定したモデルを用い、被写体領域設定部401で用いる人物基準画像では、一般的な人体モデルに比べて頭部の領域を狭く設定したモデルを用いてもよい。 The person reference image for background region correction uses a model (subject model image) in which the human body region of the body is set wider than a general human body model, and the person reference image used by the subject region setting unit 401 uses a model in which the human body region of the body is set narrower than a general human body model. Similarly, for the region corresponding to the head in the person region, the person reference image for background region correction uses a model in which the head region is set wider than a general human body model, and the person reference image used by the subject region setting unit 401 uses a model in which the head region is set narrower than a general human body model.

図5は、本実施形態における被写体モデルの適用例を示した概念図である。図5(b)は、人物領域の明るさを補正するリライティング処理の場合に適用される(対象となる)基準画像を示しており、図5(a)の逆光の人物が撮影された画像に対して、人物の内側になるように人物基準画像を設定している。 Figure 5 is a conceptual diagram showing an example of application of a subject model in this embodiment. Figure 5(b) shows a reference image that is applied (targeted) in the case of relighting processing that corrects the brightness of a person area, and for the image of a backlit person in Figure 5(a), the person reference image is set so that it is inside the person.

図5(c)は、背景領域の補正を行う場合に適応される基準画像を示しており、図5(a)の逆光の人物の画像に対して、人物の外側になるように人物基準画像を設定している。また、顔領域は体領域に比べて、目や口といった器官情報が多く存在するため、顔領域の検出精度は高い。そのため、基準画像の頭部領域の大きさは、実画像と同程度、または人体領域に比べて、実画像に対する拡大・縮小率を小さめに設定してもよい。図5(b)、(c)においても、体領域に比較して、頭部領域の基準画像の実画像に対する比率を小さめに設定している様子を示している。 Figure 5 (c) shows a reference image that is applied when correcting the background region, and for the backlit image of a person in Figure 5 (a), the person reference image is set so that it is outside the person. Also, since there is more organ information such as the eyes and mouth in the face region than in the body region, the accuracy of detecting the face region is high. Therefore, the size of the head region in the reference image may be set to be about the same as the actual image, or the enlargement/reduction ratio with respect to the actual image may be set smaller than that of the human body region. Figures 5 (b) and (c) also show how the ratio of the head region to the actual image of the reference image is set smaller than that of the body region.

図3の背景補正用人物領域特定部302および図4の被写体領域特定部402における被写体領域設定方法は、例えば特開2017-11652号公報で説明されているように、参照画像202の画素値を参照した整形処理を行なうことで被写体の輪郭に合うような被写体領域特定処理を行う。 The subject region setting method in the background correction person region identification unit 302 in FIG. 3 and the subject region identification unit 402 in FIG. 4 performs subject region identification processing to match the contours of the subject by performing shaping processing with reference to the pixel values of the reference image 202, as described, for example, in JP 2017-11652 A.

このように、被写体基準画像に対して被写体領域特定部によって輪郭にあわせた被写体領域特定処理を適用すると、背景領域のコントラストを補正するための背景補正用人物領域特定部302では、人物の外側にはみ出すように人物特定領域が設定される。また、人物の内側から外側に向けて人物特定レベルが下がるため、その特定された領域設定レベルを反転させた背景コントラスト補正領域マップは、人物の外側に対して、コントラストを強める作用がなされる。つまり人物領域に近づくにしたがって背景領域と判定されなくなるため、それに伴い人物領域に近づくほどコントラスト強調処理も適用されなくなる。 In this way, when the subject region identification process that matches the contours is applied to the subject reference image by the subject region identification unit, the background correction person region identification unit 302 for correcting the contrast of the background region sets a person identification region that extends outside the person. Also, because the person identification level decreases from the inside to the outside of the person, the background contrast correction region map that inverts the identified region setting level acts to strengthen the contrast outside the person. In other words, as you get closer to the person region, it is no longer determined to be a background region, and therefore the contrast enhancement process is not applied the closer you get to the person region.

一方、リライティングにおける被写体領域特定部402は、被写体領域の内側が補正領域となっており、被写体領域の内側から外側にかけて被写体補正量が小さくなるように設定される。それとともに、被写体の外側には被写体領域判定がはみ出さないように処理がなされる。つまり被写体の内側を中心に明るさ補正がなされ、被写体の外側になるにつれて明るさ補正レベルが小さくなるように動作する。そのため、人物領域の明るさ補正が人物領域外にはみ出すことが防止されるように作用する。 On the other hand, the subject area identification unit 402 in relighting is set so that the inside of the subject area is the correction area, and the amount of subject correction decreases from the inside to the outside of the subject area. At the same time, processing is performed so that the subject area determination does not extend outside the subject. In other words, brightness correction is performed mainly inside the subject, and the brightness correction level decreases toward the outside of the subject. Therefore, it acts to prevent the brightness correction of the person area from extending outside the person area.

また、被写体領域特定処理は、画像の輪郭情報をもとに被写体領域の整形処理を行う。しかし、被写体領域の輪郭が検出できないような場合においても、人物基準画像がそれぞれの補正領域にかからないように選定されているため、補正不具合を効果的に回避することができる。 The subject region identification process also performs a shaping process on the subject region based on the contour information of the image. However, even in cases where the contour of the subject region cannot be detected, correction problems can be effectively avoided because the person reference image is selected so that it does not overlap with each correction region.

本実施形態における、図3の背景補正用被写体領域設定部301および図4の被写体領域設定部401において用いる人物基準画像は、顔の左右方向の向き毎に基準画像を用意するようにしてもよい。そして、画像から検出された顔の向きの情報に応じて、最適な角度の人物基準画像を選択してもよい。また顔領域と人体領域を含めた3次元モデルを用意しておき、顔の角度に応じて人体基準画像を生成してもよい。また顔の角度ごとの基準画像だけでなく、顔の基準画像と人体領域の基準画像を角度ごとにそれぞれ用意しておいてもよい。そして、画像から検出された顔角度に応じて顔角度のモデルを選択し、実際の画像の顔の下部領域に対して、首から下の角度を変更した人体領域を複数あてはめ、その人体領域の分散が最も少なくなる、または領域内の類似度が最も高くなる角度を人体領域の基準画像としてもよい。 In this embodiment, the person reference image used in the background correction subject region setting unit 301 in FIG. 3 and the subject region setting unit 401 in FIG. 4 may be prepared for each left-right direction of the face. Then, a person reference image with an optimal angle may be selected according to the information of the face direction detected from the image. Also, a three-dimensional model including the face region and the human body region may be prepared, and a human body reference image may be generated according to the face angle. Also, in addition to the reference image for each face angle, a reference image of the face and a reference image of the human body region may be prepared for each angle. Then, a face angle model may be selected according to the face angle detected from the image, and multiple human body regions with different angles from the neck down may be applied to the lower face region of the actual image, and the angle at which the variance of the human body region is the smallest or the similarity within the region is the highest may be used as the reference image for the human body region.

また、本実施形態においては、被写体領域を補正する場合の基準画像と被写体領域外を補正する場合の基準画像、すなわち複数の基準画像を持ち、そこから使用する基準画像を選択すると説明した。しかし、被写体領域を補正する場合と被写体領域外を補正する場合の両方において基準画像を共通にもち、それぞれ適用する頭部領域、人体領域ごとにその拡縮の倍率を変更するようにしてもよい。 In addition, in this embodiment, it has been described that there are multiple reference images, one for correcting the subject area and one for correcting outside the subject area, and the reference image to be used is selected from these. However, it is also possible to have a common reference image for both correcting the subject area and correcting outside the subject area, and change the magnification of the enlargement/reduction for each of the head area and human body area to which it is applied.

本実施形態においては、被写体領域の推定には、顔領域のサイズや方向から推定する方法を用いたが、その方法に限らず機械学習を用いた領域推定方法などがある。これらの方法においても、背景領域と人体領域の色味や模様が似通っている場合には、人体領域が正しく抽出されないことは多く、そのような場合においても本発明は適用可能である。 In this embodiment, the subject region is estimated based on the size and orientation of the face region, but this method is not limited to this, and there are other methods such as region estimation methods using machine learning. Even with these methods, if the color and pattern of the background region and the human body region are similar, the human body region is often not extracted correctly, and the present invention can be applied even in such cases.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
Other Embodiments
The present invention can also be realized by a process in which a program for realizing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present invention can also be realized by a circuit (e.g., ASIC) for realizing one or more of the functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above-described embodiment, and various modifications and variations are possible without departing from the spirit and scope of the invention. Therefore, the following claims are appended to disclose the scope of the invention.

50:システム制御部、101:光学系、103:撮像部、105 画像処理部、113:顔・顔器官検出部、114:リライティング処理部、115:合成処理部 50: System control unit, 101: Optical system, 103: Imaging unit, 105: Image processing unit, 113: Face/facial organ detection unit, 114: Relighting processing unit, 115: Composition processing unit

Claims (9)

画像から被写体領域を検出する検出手段と、
前記被写体領域に対して、仮想光源により明るさを補正するリライティング処理を行う第1の画像処理手段と、
前記被写体領域以外の領域に対して、コントラスト補正処理を行う第2の画像処理手段と、
前記被写体領域において、前記リライティング処理を行う対象となる、前記被写体領域に近い大きさで、且つ前記被写体領域よりも小さい第1の基準領域を決定する第1の決定手段と、
前記コントラスト補正処理を行う対象となる領域を決定するために、前記被写体領域に近い大きさで、且つ前記被写体領域よりも大きい第2の基準領域を決定する第2の決定手段と、
を備えることを特徴とする画像処理装置。
A detection means for detecting a subject area from an image;
a first image processing means for performing a relighting process on the subject region to correct brightness using a virtual light source ;
a second image processing means for performing a contrast correction process on an area other than the subject area;
a first determination means for determining a first reference area, which is a target of the relighting process in the subject area and has a size close to the subject area and smaller than the subject area;
a second determination means for determining a second reference area having a size close to and larger than the subject area in order to determine an area to be subjected to the contrast correction process ;
An image processing device comprising:
前記検出手段は、前記被写体領域として顔の領域と体の領域を検出し、前記第1の決定手段は、前記第1の基準領域を前記被写体領域よりも小さくする程度を、前記顔の領域と前記体の領域で異ならせることを特徴とする請求項に記載の画像処理装置。 2. The image processing device according to claim 1, wherein the detection means detects a face area and a body area as the subject area, and the first determination means sets a degree to which the first reference area is made smaller than the subject area to be different for the face area and the body area. 前記第1の決定手段は、前記第1の基準領域を前記被写体領域よりも小さくする程度を、前記顔の領域よりも前記体の領域が大きくなるように決定することを特徴とする請求項に記載の画像処理装置。 3. The image processing apparatus according to claim 2, wherein the first determining means determines a degree to which the first reference region is made smaller than the subject region such that the body region is larger than the face region. 前記検出手段は、前記被写体領域として顔の領域と体の領域を検出し、前記第2の決定手段は、前記第2の基準領域を前記被写体領域よりも大きくする程度を、前記顔の領域と前記体の領域で異ならせることを特徴とする請求項に記載の画像処理装置。 2. The image processing device according to claim 1, wherein the detection means detects a face area and a body area as the subject area, and the second determination means sets a degree to which the second reference area is made larger than the subject area to be different for the face area and the body area. 前記第2の決定手段は、前記第2の基準領域を前記被写体領域よりも大きくする程度を、前記顔の領域よりも前記体の領域が大きくなるように決定することを特徴とする請求項に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein the second determining means determines the extent to which the second reference region is to be made larger than the subject region such that the body region is larger than the face region. 前記第1の決定手段及び第2の決定手段は、顔の領域の検出結果および前記画像に基づいて被写体モデル画像を変形して前記第1の基準領域と前記第2の基準領域を決定することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 6. The image processing device according to claim 1, wherein the first determination means and the second determination means determine the first reference area and the second reference area by transforming a subject model image based on a face area detection result and the image. 画像から被写体領域を検出する検出工程と、
前記被写体領域に対して、仮想光源により明るさを補正するリライティング処理を行う第1の画像処理工程と、
前記被写体領域以外の領域に対して、コントラスト補正処理を行う第2の画像処理工程と、
前記被写体領域において、前記リライティング処理を行う対象となる、前記被写体領域に近い大きさで、且つ前記被写体領域よりも小さい第1の基準領域を決定する第1の決定工程と、
前記コントラスト補正処理を行う対象となる領域を決定するために、前記被写体領域に近い大きさで、且つ前記被写体領域よりも大きい第2の基準領域を決定する第2の決定工程と、
を有することを特徴とする画像処理方法。
A detection step of detecting a subject region from an image;
a first image processing step of performing a relighting process for correcting brightness of the subject region using a virtual light source ;
a second image processing step of performing a contrast correction process on an area other than the subject area;
a first determination step of determining a first reference area, which is a target area for the relighting process in the subject area and has a size close to the subject area and smaller than the subject area;
a second determination step of determining a second reference area having a size close to and larger than the subject area in order to determine an area to be subjected to the contrast correction process ;
13. An image processing method comprising the steps of:
コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of the image processing apparatus according to any one of claims 1 to 5 . コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 6. A computer-readable storage medium storing a program for causing a computer to function as each of the means of the image processing apparatus according to claim 1.
JP2020075609A 2020-04-21 2020-04-21 Image processing device and method, program, and storage medium Active JP7534866B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020075609A JP7534866B2 (en) 2020-04-21 2020-04-21 Image processing device and method, program, and storage medium
US17/231,921 US11842467B2 (en) 2020-04-21 2021-04-15 Image processing apparatus, image processing method and storage medium
CN202110430659.0A CN113542585A (en) 2020-04-21 2021-04-21 Image processing apparatus, image processing method, and storage medium
US18/504,692 US20240078650A1 (en) 2020-04-21 2023-11-08 Image processing apparatus, image processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020075609A JP7534866B2 (en) 2020-04-21 2020-04-21 Image processing device and method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2021175036A JP2021175036A (en) 2021-11-01
JP7534866B2 true JP7534866B2 (en) 2024-08-15

Family

ID=78081848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020075609A Active JP7534866B2 (en) 2020-04-21 2020-04-21 Image processing device and method, program, and storage medium

Country Status (3)

Country Link
US (2) US11842467B2 (en)
JP (1) JP7534866B2 (en)
CN (1) CN113542585A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021374A (en) 2002-06-13 2004-01-22 Fuji Xerox Co Ltd Image processing method, image processing device, program, and storage medium
JP2017084093A (en) 2015-10-28 2017-05-18 カシオ計算機株式会社 Image processing device, image processing method and program
JP2018067190A (en) 2016-10-20 2018-04-26 キヤノン株式会社 Image processing device, control method thereof, program, and recording medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130259374A1 (en) * 2012-03-29 2013-10-03 Lulu He Image segmentation
JP6116272B2 (en) 2013-02-08 2017-04-19 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium
US9955140B2 (en) * 2015-03-11 2018-04-24 Microsoft Technology Licensing, Llc Distinguishing foreground and background with inframed imaging
JP6529360B2 (en) 2015-06-26 2019-06-12 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method and program
US9864901B2 (en) * 2015-09-15 2018-01-09 Google Llc Feature detection and masking in images based on color distributions
US9741125B2 (en) * 2015-10-28 2017-08-22 Intel Corporation Method and system of background-foreground segmentation for image processing
JP2018182700A (en) 2017-04-21 2018-11-15 キヤノン株式会社 Image processing apparatus, control method of the same, program, and storage medium
US10812770B2 (en) * 2017-09-13 2020-10-20 Canon Kabushiki Kaisha Image processing system, image processing apparatus, image processing method, and program
JP6992874B2 (en) * 2018-03-09 2022-01-13 日本電気株式会社 Self-registration system, purchased product management method and purchased product management program
US11120528B1 (en) * 2018-09-11 2021-09-14 Apple Inc. Artificial aperture adjustment for synthetic depth of field rendering
JP7289746B2 (en) * 2019-07-11 2023-06-12 キヤノン株式会社 Information processing device, information processing method, and program
JP7542978B2 (en) * 2020-04-01 2024-09-02 キヤノン株式会社 Image processing device, image processing method, and program
US11971957B2 (en) * 2020-08-08 2024-04-30 Analog Devices International Unlimited Company Aggregating sensor profiles of objects

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021374A (en) 2002-06-13 2004-01-22 Fuji Xerox Co Ltd Image processing method, image processing device, program, and storage medium
JP2017084093A (en) 2015-10-28 2017-05-18 カシオ計算機株式会社 Image processing device, image processing method and program
JP2018067190A (en) 2016-10-20 2018-04-26 キヤノン株式会社 Image processing device, control method thereof, program, and recording medium
US20180115758A1 (en) 2016-10-20 2018-04-26 Canon Kabushiki Kaisha Image processing apparatus, control method thereof, and storage medium

Also Published As

Publication number Publication date
US20240078650A1 (en) 2024-03-07
US11842467B2 (en) 2023-12-12
JP2021175036A (en) 2021-11-01
CN113542585A (en) 2021-10-22
US20210327036A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
JP6442209B2 (en) Image processing apparatus and control method thereof
WO2019072190A1 (en) Image processing method, electronic apparatus, and computer readable storage medium
CN108668093A (en) The generation method and device of HDR image
JP5743696B2 (en) Image processing apparatus, image processing method, and program
JP2011041089A (en) Method, device and program for processing image, and imaging device
KR20130031574A (en) Image processing method and image processing apparatus
JP6381404B2 (en) Image processing apparatus and method, and imaging apparatus
CN107872631B (en) Image shooting method and device based on double cameras and mobile terminal
WO2020029679A1 (en) Control method and apparatus, imaging device, electronic device and readable storage medium
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
JP7292905B2 (en) Image processing device, image processing method, and imaging device
JP2016213718A (en) Image processing apparatus, image processing method, program, and storage medium
JP7129520B2 (en) Image processing device, image processing method, and program
JP6718253B2 (en) Image processing apparatus and image processing method
JP2018163648A (en) Image processor, method for image processing, and program
JP7301683B2 (en) Image processing device, image processing method, and program
CN110324529B (en) Image processing apparatus and control method thereof
JP7114335B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
JP2020102059A (en) Image processor
JP2017147568A (en) Image processing apparatus, imaging apparatus, control method, and program
JP6896811B2 (en) Image processing equipment, image processing methods, and programs
JP2018050149A (en) Image processing apparatus
JP7534866B2 (en) Image processing device and method, program, and storage medium
JP7102192B2 (en) Image processing device, its control method, program
JP6663246B2 (en) Image processing apparatus, imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240802

R150 Certificate of patent or registration of utility model

Ref document number: 7534866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150