JP6803473B2 - Image processing methods and equipment, as well as non-temporary computer-readable storage media - Google Patents

Image processing methods and equipment, as well as non-temporary computer-readable storage media Download PDF

Info

Publication number
JP6803473B2
JP6803473B2 JP2019533587A JP2019533587A JP6803473B2 JP 6803473 B2 JP6803473 B2 JP 6803473B2 JP 2019533587 A JP2019533587 A JP 2019533587A JP 2019533587 A JP2019533587 A JP 2019533587A JP 6803473 B2 JP6803473 B2 JP 6803473B2
Authority
JP
Japan
Prior art keywords
image
overexposed
focus
blurred
present disclosure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019533587A
Other languages
Japanese (ja)
Other versions
JP2020502689A (en
Inventor
スン、ジャンボ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/CN2016/111149 external-priority patent/WO2018112764A1/en
Priority claimed from PCT/CN2016/111147 external-priority patent/WO2018112763A1/en
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020502689A publication Critical patent/JP2020502689A/en
Application granted granted Critical
Publication of JP6803473B2 publication Critical patent/JP6803473B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本開示は、画像処理技術に関し、特に、画像処理方法、画像処理装置、および非一時的コンピュータ可読記憶媒体に関する。 The present disclosure relates to image processing techniques, in particular to image processing methods, image processing devices, and non-temporary computer-readable storage media.

ポートレート写真の背景をぼかすなどの既存のぼかしアルゴリズムでは、ぼかしソフトウェアアルゴリズムは、通常、写真上の光源をぼかす際にファジーアルゴリズムを使用する。ファジーアルゴリズムは、光源の画素の輝度を平均化する計算である。光源は、写真上で暗く見え、悪影響を及ぼすことがある。 In existing blur algorithms, such as blurring the background of a portrait photo, the blur software algorithm typically uses a fuzzy algorithm to blur the light source on the photo. The fuzzy algorithm is a calculation that averages the brightness of the pixels of the light source. The light source appears dark on the photograph and can have an adverse effect.

本開示の実施形態は、関連技術に存在する技術的課題の少なくとも1つを少なくともある程度解決することを目指している。したがって、本開示の実施形態は、画像処理方法、画像処理装置、および非一時的コンピュータ可読記憶媒体を提供することが求められる。 The embodiments of the present disclosure aim to solve at least one of the technical problems existing in the related technology to at least to some extent. Therefore, embodiments of the present disclosure are required to provide image processing methods, image processing devices, and non-temporary computer-readable storage media.

本開示は、以下のステップを含む画像処理方法を提供する:
(a)第1の写真撮影パラメータに対応する第1の画像を取得する;
(b)第2の写真撮影パラメータに対応する、第1の画像と同一シーンを有する第2の画像を取得する;
(c)第1の画像をぼかし、ぼけた第1の画像を取得する;
(d)第1の画像の露出過大部分に対応する、ぼけた第1の画像の置換対象部分を定義する;
(e)置換対象部分に対応する第2の画像の置換部分を取得する;および
(f)ぼけた第1の画像の置換対象部分を第2の画像の置換部分と置換してマージ画像を取得する。
The present disclosure provides an image processing method that includes the following steps:
(A) Acquire the first image corresponding to the first photography parameter;
(B) Acquire a second image having the same scene as the first image, which corresponds to the second photography parameter;
(C) Blur the first image and obtain a blurred first image;
(D) Define the part to be replaced of the blurred first image corresponding to the overexposed part of the first image;
(E) Acquire the replacement portion of the second image corresponding to the replacement target portion; and (f) Replace the replacement target portion of the blurred first image with the replacement portion of the second image to obtain the merged image. To do.

本開示は、以下を含む画像処理装置を提供する:
プロセッサと、
プロセッサに接続されたメモリであって、方法を実行するように構成されたプロセッサによって実行可能な複数のプログラム命令を含むメモリと、を含み、方法が、
(a)第1の写真撮影パラメータに対応する第1の画像を取得すること;
(b)第2の写真撮影パラメータに対応する、第1の画像と同一シーンを有する第2の画像を取得すること;
(c)第1の画像をぼかし、ぼけた第1の画像を取得すること;
(d)第1の画像の露出過大部分に対応する、ぼけた第1の画像の置換対象部分を定義すること;
(e)置換対象部分に対応する第2の画像の置換部分を取得すること;および
(f)ぼけた第1の画像の置換対象部分を第2の画像の置換部分と置換してマージ画像を取得すること
を含む。
The present disclosure provides an image processing apparatus including:
With the processor
A method that includes memory attached to a processor that contains multiple program instructions that can be executed by a processor that is configured to perform the method.
(A) Acquiring the first image corresponding to the first photography parameter;
(B) Acquiring a second image having the same scene as the first image, which corresponds to the second photography parameter;
(C) Blurring the first image to obtain a blurred first image;
(D) To define the replacement target portion of the blurred first image corresponding to the overexposed portion of the first image;
(E) Obtaining the replacement portion of the second image corresponding to the replacement target portion; and (f) Replacing the replacement target portion of the blurred first image with the replacement portion of the second image to obtain the merged image. Including to get.

本開示は、電子機器がプロセッサを使用して命令を実行したときに前述の画像処理方法にかかる画像処理方法が実行される命令を記憶した非一時的コンピュータ可読記憶媒体を提供する。 The present disclosure provides a non-temporary computer-readable storage medium that stores an instruction for executing an image processing method according to the above-mentioned image processing method when an electronic device executes an instruction using a processor.

本開示にかかる画像処理方法および装置の態様では、2つの画像が撮影され、一方は合焦画像であり、他方は非合焦画像であり、合焦画像の露出過大部分に対応する非合焦画像の素材部分が抽出され、そして、ぼけた合焦画像にマージされ、実際のフレア効果を有するマージ画像を取得する。フレア効果が優れている。 In the aspects of the image processing method and apparatus according to the present disclosure, two images are captured, one is an in-focus image and the other is an out-of-focus image, which corresponds to an overexposed portion of the in-focus image. The material portion of the image is extracted and merged into a blurred in-focus image to get a merged image with the actual flare effect. Excellent flare effect.

本開示にかかる画像処理方法および装置の他の態様では、2つの画像が撮影され、一方は等露出画像であり、他方は露出過小画像であり、2つの画像は、双方ともぼけており、そして、ぼけた露出過大部分の輝度が増加され、対応する偽の露出過大部分が抽出され、ぼけた等露出画像のぼけた露出過大部分が偽の露出過大部分に置換され、実際のフレア効果を有するぼけた画像にマージする。フレア効果が優れている。 In another aspect of the image processing method and apparatus according to the present disclosure, two images are taken, one is an equiexposed image and the other is an underexposed image, and the two images are both blurred and , The brightness of the overexposed portion is increased, the corresponding false overexposed portion is extracted, and the overexposed portion of the blurred or other exposed image is replaced with the false overexposed portion, which has an actual flare effect. Merge into a blurred image. Excellent flare effect.

本開示のさらなる態様および利点は、以下のように部分的に説明されるか、以下の説明から部分的に明らかになるか、または本開示を実装することから得られる。 Further aspects and advantages of the present disclosure can be obtained in part as described below, as partially revealed by the description below, or by implementing the present disclosure.

本開示の上記および/またはさらなる態様および利点は、図面と併せて、以下の実施形態の説明において明らかになり且つ容易に理解されるであろう。 The above and / or additional aspects and advantages of the present disclosure, together with the drawings, will be apparent and readily understood in the description of the embodiments below.

図1は、本開示の画像処理方法のフローチャートである。FIG. 1 is a flowchart of the image processing method of the present disclosure. 図2は、本開示の第1の実施形態の画像処理方法のフローチャートである。FIG. 2 is a flowchart of the image processing method according to the first embodiment of the present disclosure. 図3は、本開示の第1の実施形態の画像処理装置を示すブロック図である。FIG. 3 is a block diagram showing an image processing apparatus according to the first embodiment of the present disclosure. 図4は、本開示の第1の実施形態の制御方法のフローチャートである。FIG. 4 is a flowchart of the control method according to the first embodiment of the present disclosure. 図5は、本開示の第1の実施形態の制御装置を示すブロック図である。FIG. 5 is a block diagram showing a control device according to the first embodiment of the present disclosure. 図6は、本開示の第1の実施形態の撮像装置を示すブロック図である。FIG. 6 is a block diagram showing an imaging device according to the first embodiment of the present disclosure. 図7は、本開示の第1の実施形態の電子機器を示すブロック図である。FIG. 7 is a block diagram showing an electronic device according to the first embodiment of the present disclosure. 図8は、図7に示す電子機器の物理的物品を示す概略図である。FIG. 8 is a schematic view showing a physical article of the electronic device shown in FIG. 7. 図9は、本開示の電子機器のワークフローを示す概略図である。FIG. 9 is a schematic view showing the workflow of the electronic device of the present disclosure. 図10は、本開示の第2の実施形態の画像処理方法のフローチャートである。FIG. 10 is a flowchart of the image processing method of the second embodiment of the present disclosure. 図11は、本開示の第2の実施形態の画像処理装置を示すブロック図である。FIG. 11 is a block diagram showing an image processing apparatus according to a second embodiment of the present disclosure. 図12は、本開示にかかる合焦画像のヒストグラムである。FIG. 12 is a histogram of the in-focus image according to the present disclosure. 図13は、本開示の第2の実施形態の制御方法のフローチャートである。FIG. 13 is a flowchart of the control method according to the second embodiment of the present disclosure. 図14は、本開示の第2の実施形態の制御装置を示すブロック図である。FIG. 14 is a block diagram showing a control device according to a second embodiment of the present disclosure. 図15は、本開示の第2の実施形態の撮像装置を示すブロック図である。FIG. 15 is a block diagram showing an imaging device according to a second embodiment of the present disclosure. 図16は、本開示の第2の実施形態の電子機器を示すブロック図である。FIG. 16 is a block diagram showing an electronic device according to a second embodiment of the present disclosure. 図17は、本開示の第3の実施形態の画像処理方法のフローチャートである。FIG. 17 is a flowchart of the image processing method according to the third embodiment of the present disclosure. 図18は、本開示の第3の実施形態の画像処理装置を示すブロック図である。FIG. 18 is a block diagram showing an image processing apparatus according to a third embodiment of the present disclosure. 図19は、本開示の第3の実施形態の制御方法のフローチャートである。FIG. 19 is a flowchart of a control method according to a third embodiment of the present disclosure. 図20は、本開示の第3の実施形態の制御装置を示すブロック図である。FIG. 20 is a block diagram showing a control device according to a third embodiment of the present disclosure. 図21は、本開示の第3の実施形態の撮像装置を示すブロック図である。FIG. 21 is a block diagram showing an imaging device according to a third embodiment of the present disclosure. 図22は、本開示の第3の実施形態の電子機器を示すブロック図である。FIG. 22 is a block diagram showing an electronic device according to a third embodiment of the present disclosure. 図23は、本開示の第4の実施形態の画像処理方法のフローチャートである。FIG. 23 is a flowchart of the image processing method according to the fourth embodiment of the present disclosure. 図24は、本開示の第4の実施形態の画像処理装置を示すブロック図である。FIG. 24 is a block diagram showing an image processing apparatus according to a fourth embodiment of the present disclosure. 図25は、本開示の第4の実施形態の制御方法のフローチャートである。FIG. 25 is a flowchart of the control method according to the fourth embodiment of the present disclosure. 図26は、本開示の第4の実施形態の制御装置を示すブロック図である。FIG. 26 is a block diagram showing a control device according to a fourth embodiment of the present disclosure. 図27は、本開示の第4の実施形態の撮像装置を示すブロック図である。FIG. 27 is a block diagram showing an imaging device according to a fourth embodiment of the present disclosure. 図28は、本開示の第4の実施形態の電子機器を示すブロック図である。FIG. 28 is a block diagram showing an electronic device according to a fourth embodiment of the present disclosure. 図29は、本開示のいくつかの実施形態にかかる、撮像装置を制御して同一シーンの合焦画像および非合焦画像を出力するフローチャートである。FIG. 29 is a flowchart according to some embodiments of the present disclosure, which controls an imaging device to output in-focus images and out-of-focus images of the same scene. 図30は、本開示のいくつかの実施形態にかかる制御モジュールを示すブロック図である。FIG. 30 is a block diagram showing a control module according to some embodiments of the present disclosure. 図31は、本開示の第5の実施形態の画像処理方法のフローチャートである。FIG. 31 is a flowchart of the image processing method according to the fifth embodiment of the present disclosure. 図32は、本開示の第5の実施形態の画像処理装置を示すブロック図である。FIG. 32 is a block diagram showing an image processing apparatus according to a fifth embodiment of the present disclosure. 図33は、本開示の第5の実施形態の制御方法のフローチャートである。FIG. 33 is a flowchart of the control method according to the fifth embodiment of the present disclosure. 図34は、本開示の第5の実施形態の制御装置を示すブロック図である。FIG. 34 is a block diagram showing a control device according to a fifth embodiment of the present disclosure. 図35は、本開示の第5の実施の形態の撮像装置を示すブロック図である。FIG. 35 is a block diagram showing an imaging device according to a fifth embodiment of the present disclosure. 図36は、本開示の第5の実施形態の電子機器を示すブロック図である。FIG. 36 is a block diagram showing an electronic device according to a fifth embodiment of the present disclosure. 図37は、本開示の電子機器のワークフローを示す概略図である。FIG. 37 is a schematic diagram showing a workflow of the electronic device of the present disclosure. 図38は、本開示の第6の実施形態の画像処理方法のフローチャートである。FIG. 38 is a flowchart of the image processing method according to the sixth embodiment of the present disclosure. 図39は、本開示の第6の実施形態の画像処理装置を示すブロック図である。FIG. 39 is a block diagram showing an image processing apparatus according to a sixth embodiment of the present disclosure. 図40は、本開示の第6の実施形態の制御方法のフローチャートである。FIG. 40 is a flowchart of the control method according to the sixth embodiment of the present disclosure. 図41は、本開示の第6の実施形態の制御装置を示すブロック図である。FIG. 41 is a block diagram showing a control device according to a sixth embodiment of the present disclosure. 図42は、本開示の第6の実施形態の撮像装置を示すブロック図である。FIG. 42 is a block diagram showing an imaging device according to a sixth embodiment of the present disclosure. 図43は、本開示の第6の実施形態の電子機器を示すブロック図である。FIG. 43 is a block diagram showing an electronic device according to a sixth embodiment of the present disclosure. 図44は、本開示の第7の実施形態の画像処理方法のフローチャートである。FIG. 44 is a flowchart of the image processing method according to the seventh embodiment of the present disclosure. 図45は、本開示の第7の実施形態の画像処理装置を示すブロック図である。FIG. 45 is a block diagram showing an image processing apparatus according to a seventh embodiment of the present disclosure. 図46は、本開示の第7の実施形態の制御方法のフローチャートである。FIG. 46 is a flowchart of the control method according to the seventh embodiment of the present disclosure. 図47は、本開示の第7の実施形態の制御装置を示すブロック図である。FIG. 47 is a block diagram showing a control device according to a seventh embodiment of the present disclosure. 図48は、本開示の第7の実施形態の撮像装置を示すブロック図である。FIG. 48 is a block diagram showing an imaging device according to a seventh embodiment of the present disclosure. 図49は、本開示の第7の実施形態の電子機器を示すブロック図である。FIG. 49 is a block diagram showing an electronic device according to a seventh embodiment of the present disclosure. 図50は、本開示の第8の実施形態の画像処理方法のフローチャートである。FIG. 50 is a flowchart of the image processing method according to the eighth embodiment of the present disclosure. 図51は、本開示の第8の実施形態の画像処理装置を示すブロック図である。FIG. 51 is a block diagram showing an image processing apparatus according to an eighth embodiment of the present disclosure. 図52は、本開示の第8の実施形態の制御方法のフローチャートである。FIG. 52 is a flowchart of the control method according to the eighth embodiment of the present disclosure. 図53は、本開示の第8の実施形態の制御装置を示すブロック図である。FIG. 53 is a block diagram showing a control device according to an eighth embodiment of the present disclosure. 図54は、本開示の第8の実施形態の撮像装置を示すブロック図である。FIG. 54 is a block diagram showing an imaging device according to an eighth embodiment of the present disclosure. 図55は、本開示の第8の実施形態の電子機器を示すブロック図である。FIG. 55 is a block diagram showing an electronic device according to an eighth embodiment of the present disclosure. 図56は、本開示のいくつかの実施形態にかかる、撮像装置を制御して同一シーンの等露出画像および露出過小画像を出力するフローチャートである。FIG. 56 is a flowchart according to some embodiments of the present disclosure, which controls an imaging device to output an equally exposed image and an underexposed image of the same scene. 図57は、本開示のいくつかの実施形態にかかる制御モジュールを示すブロック図である。FIG. 57 is a block diagram showing a control module according to some embodiments of the present disclosure. 図58は、本開示のいくつかの実施形態にかかる、撮像装置を制御して同一シーンの等露出画像および露出過小画像を出力するフローチャートである。FIG. 58 is a flowchart according to some embodiments of the present disclosure, which controls an image pickup apparatus to output an equally exposed image and an underexposed image of the same scene. 図59は、本開示のいくつかの実施形態にかかる制御モジュールを示すブロック図である。FIG. 59 is a block diagram showing a control module according to some embodiments of the present disclosure.

以下、本発明の実施形態について詳細に説明する。実施形態は、添付の図面に示されており、同一または同様の参照符号は、全体にわたって、同一または同様の構成要素、あるいは同一または同様の機能を有する構成要素として示されている。添付の図面を参照して以下に記載される実施形態は、例示的であり、単に本開示を例示するために使用され、本開示の限定として解釈されるべきではない。 Hereinafter, embodiments of the present invention will be described in detail. Embodiments are shown in the accompanying drawings, and the same or similar reference numerals are shown throughout, as identical or similar components, or components having the same or similar function. The embodiments described below with reference to the accompanying drawings are exemplary and are used merely to illustrate this disclosure and should not be construed as a limitation of this disclosure.

本開示の説明において、「第1(first)」および「第2(second)」などの用語は、説明の目的のために本明細書で使用され、相対的な重要性もしくは重大性を示すもしくは暗示する、または示された技術的特徴の数を暗示することを意図するものではない。したがって、「第1」および「第2」によって定義された特徴は、この特徴のうちの1つ以上を含むことができる。本開示の説明において、「複数」とは、特に断りのない限り、2以上を意味する。 In the description of the present disclosure, terms such as "first" and "second" are used herein for explanatory purposes to indicate relative significance or materiality. It is not intended to imply or imply the number of technical features shown. Therefore, the features defined by "first" and "second" can include one or more of these features. In the description of the present disclosure, "plurality" means two or more unless otherwise specified.

本開示の説明において、特に断りまたは制限のない限り、「取り付けられた(mounted)」、「接続された(connected)」、「結合された(coupled)」、「固定された(fixed)」などの用語が広く使用されており、例えば、特定の状況に応じて当業者によって理解することができる、固定接続、取り外し可能な接続、または一体接続とすることができ、機械的または電気的接続とすることもでき、直接接続または介在構造を介した間接接続とすることもでき、2つの要素の内部連通とすることもできることに留意されたい。 In the description of the present disclosure, unless otherwise specified or restricted, "mounted", "connected", "coupled", "fixed", etc. The terminology is widely used, for example, it can be a fixed connection, a removable connection, or an integral connection, which can be understood by one of ordinary skill in the art depending on the particular situation, with a mechanical or electrical connection. It should be noted that it can be a direct connection, an indirect connection via an intervening structure, or an internal communication of the two elements.

以下の開示は、本開示の異なる構造を実装するための多くの異なる実施形態または例を提供する。本開示を単純化するために、特定の例の構成要素および構成が以下に記載される。明らかに、それらは単なる例示であり、本開示を限定することを意図するものではない。さらに、参照符号および/または文字は、説明した実施形態および/または構成の間の関係を示すことなく、単純化および明確化の目的のために、本開示の異なる例において繰り返すことができる。さらに、本開示は、様々な特定のプロセスおよび材料の例を提供するが、当業者は、他のプロセスの利用可能性および/または他の材料の使用法を理解することができる。 The following disclosures provide many different embodiments or examples for implementing the different structures of the present disclosure. To simplify this disclosure, the components and components of a particular example are described below. Obviously, they are merely examples and are not intended to limit this disclosure. Moreover, reference numerals and / or letters can be repeated in different examples of the present disclosure for the purposes of simplification and clarification without showing the relationships between the embodiments and / or configurations described. In addition, the present disclosure provides examples of various specific processes and materials, but those skilled in the art can understand the availability of other processes and / or the use of other materials.

本開示は、画像処理方法の複数の実施形態、制御方法の複数の実施形態、画像処理装置の複数の実施形態、制御装置の複数の実施形態、撮像装置の複数の実施形態、および電子機器の複数の実施形態を提供する。画像処理方法の複数の実施形態は、シーケンス番号、ならびに制御方法の複数の実施形態、画像処理装置の複数の実施形態、制御装置の複数の実施形態、撮像装置の複数の実施形態、および電子機器の複数の実施形態によって以下に説明される。画像処理方法の各実施形態は、制御方法の実施形態、画像処理装置の実施形態、制御装置の実施形態、撮像装置の実施形態、および電子機器の実施形態に対応する。例えば、画像処理方法の第1の実施形態は、制御方法の第1の実施形態、画像処理装置の第1の実施形態、制御装置の第1の実施形態、撮像装置の第1の実施形態、および電子機器の第1の実施形態に対応し、画像処理方法の第2の実施形態は、制御方法の第2の実施形態、画像処理装置の第2の実施形態、制御装置の第2の実施形態、撮像装置の第2の実施形態、および電子機器の第2の実施形態に対応する。 The present disclosure relates to a plurality of embodiments of an image processing method, a plurality of embodiments of a control method, a plurality of embodiments of an image processing apparatus, a plurality of embodiments of a control apparatus, a plurality of embodiments of an imaging apparatus, and an electronic device. A plurality of embodiments are provided. The plurality of embodiments of the image processing method include sequence numbers, and a plurality of embodiments of the control method, a plurality of embodiments of the image processing apparatus, a plurality of embodiments of the control apparatus, a plurality of embodiments of the imaging apparatus, and an electronic device. Will be described below by a plurality of embodiments of. Each embodiment of the image processing method corresponds to an embodiment of a control method, an embodiment of an image processing device, an embodiment of a control device, an embodiment of an imaging device, and an embodiment of an electronic device. For example, the first embodiment of the image processing method includes a first embodiment of a control method, a first embodiment of an image processing device, a first embodiment of a control device, and a first embodiment of an imaging device. And corresponding to the first embodiment of the electronic device, the second embodiment of the image processing method is the second embodiment of the control method, the second embodiment of the image processing device, and the second embodiment of the control device. Corresponds to the second embodiment of the embodiment, the image pickup apparatus, and the second embodiment of the electronic device.

本開示は、画像処理方法に関する。画像処理方法は、以下のステップを含む:(a)第1の写真撮影パラメータに対応する第1の画像を取得する;(b)第2の写真撮影パラメータに対応する、第1の画像と同一シーンを有する第2の画像を取得する;(c)第1の画像をぼかし、ぼけた第1の画像を取得する;(d)第1の画像の露出過大部分に対応する、ぼけた第1の画像の置換対象部分を定義する;(e)置換対象部分に対応する第2の画像の置換部分を取得する;および(f)ぼけた第1の画像の置換対象部分を第2の画像の置換部分と置換してマージ画像を取得する。 The present disclosure relates to an image processing method. The image processing method includes the following steps: (a) acquiring the first image corresponding to the first photographic parameter; (b) identical to the first image corresponding to the second photographic parameter. Acquire a second image with a scene; (c) Blur the first image and acquire a blurred first image; (d) Blurred first image corresponding to the overexposed portion of the first image Defines the replacement target portion of the image; (e) obtains the replacement target portion of the second image corresponding to the replacement target portion; and (f) replaces the replacement target portion of the blurred first image with the second image. Get the merged image by replacing with the replacement part.

本開示は、制御方法に関する。制御方法は、撮像装置を制御するために利用される。制御方法は、撮像装置を制御して同一シーンの合焦画像および非合焦画像を出力することと、前述した画像処理方法を利用して合焦画像および非合焦画像を処理することとを含む。 The present disclosure relates to control methods. The control method is used to control the imaging device. The control method is to control the image pickup device to output the in-focus image and the out-of-focus image of the same scene, and to process the in-focus image and the out-of-focus image by using the image processing method described above. Including.

本開示は、画像処理装置に関する。画像処理装置は、プロセッサと、プロセッサと接続され、方法を実行するように構成されたプロセッサによって実行可能な複数のプログラム命令を含むメモリとを含む。本方法は、(a)第1の写真撮影パラメータに対応する第1の画像を取得すること;(b)第2の写真撮影パラメータに対応する、第1の画像と同一シーンを有する第2の画像を取得すること;(c)第1の画像をぼかし、ぼけた第1の画像を取得すること;(d)第1の画像の露出過大部分に対応する、ぼけた第1の画像の置換対象部分を定義すること;(e)置換対象部分に対応する第2の画像の置換部分を取得すること;および(f)ぼけた第1の画像の置換対象部分を第2の画像の置換部分と置換してマージ画像を取得することを含む。 The present disclosure relates to an image processing apparatus. The image processor includes a processor and a memory containing a plurality of program instructions that can be executed by the processor connected to the processor and configured to perform the method. The method is to (a) obtain a first image corresponding to the first photography parameter; (b) a second image having the same scene as the first image corresponding to the second photography parameter. Acquiring an image; (c) Blurring the first image and acquiring a blurred first image; (d) Replacing the blurred first image corresponding to the overexposed portion of the first image To define the target part; (e) to obtain the replacement part of the second image corresponding to the replacement target part; and (f) to replace the blurred first image replacement target part with the second image replacement part. Includes replacing with to get the merged image.

本開示は、制御装置に関する。制御装置は、撮像装置を制御するために利用される。制御装置は、撮像装置を制御して同一シーンの合焦画像および非合焦画像を出力するように構成された制御モジュールと、前記制御モジュールと電気的に接続する前述した画像処理装置とを含む。 The present disclosure relates to a control device. The control device is used to control the image pickup device. The control device includes a control module configured to control an image pickup device to output in-focus images and out-of-focus images of the same scene, and the above-mentioned image processing device that is electrically connected to the control module. ..

本開示は、撮像装置に関する。撮像装置は、カメラレンズと、カメラレンズと電気的に接続し、カメラレンズを制御して同一シーンの合焦画像および非合焦画像を出力するように構成された制御モジュールと、前記制御モジュールと電気的に接続する前述した画像処理装置とを含む。 The present disclosure relates to an imaging device. The image pickup apparatus includes a camera lens, a control module that is electrically connected to the camera lens, and is configured to control the camera lens to output in-focus images and out-of-focus images of the same scene, and the control module. Includes the above-mentioned image processing device that is electrically connected.

本開示は、電子機器に関する。電子機器は、前述した撮像装置を含む。 The present disclosure relates to electronic devices. The electronic device includes the above-mentioned imaging device.

本開示は、電子機器に関する。電子装置は、プロセッサと、記憶装置とを含む。記憶装置は、実行可能プログラムコードを記憶するように構成される。プロセッサは、記憶装置に記憶されている実行可能プログラムコードを読み出すことにより、実行可能プログラムコードに対応するプログラムを実行し、上述した画像処理方法または上述した制御方法を実行する。 The present disclosure relates to electronic devices. The electronic device includes a processor and a storage device. The storage device is configured to store the executable program code. By reading the executable program code stored in the storage device, the processor executes the program corresponding to the executable program code, and executes the image processing method described above or the control method described above.

本開示は、電子機器がプロセッサを使用して命令を実行したときに、前述した画像処理方法または前述した制御方法が実行される命令を記憶した非一時的コンピュータ可読記憶媒体に関する。 The present disclosure relates to a non-temporary computer-readable storage medium that stores an instruction in which the above-mentioned image processing method or the above-mentioned control method is executed when an electronic device executes an instruction by using a processor.

図1を参照すると、本開示の画像処理方法は、ブロックにおいて以下の動作を含む。 With reference to FIG. 1, the image processing method of the present disclosure includes the following operations in the block.

ブロックS1において、第1の写真撮影パラメータに対応する第1の画像が取得される。 In block S1, the first image corresponding to the first photography parameter is acquired.

ブロックS2において、第1の画像と同一シーンを有する第2の画像が取得される。第2の画像は、第2の写真撮影パラメータに対応する。 In block S2, a second image having the same scene as the first image is acquired. The second image corresponds to the second photography parameter.

ブロックS3において、第1の画像がぼかされ、ぼけた第1の画像が取得される。 In block S3, the first image is blurred and the blurred first image is acquired.

ブロックS4において、ぼけた第1の画像内に置換対象部分が定義される。置換対象部分は、第1の画像の露出過大部分に対応する。 In block S4, the replacement target portion is defined in the blurred first image. The replacement target portion corresponds to the overexposed portion of the first image.

ブロックS5において、第2の画像の置換部分が取得される。置換部分は、置換対象部分に対応する。 In block S5, the replacement portion of the second image is acquired. The replacement portion corresponds to the replacement target portion.

ブロックS6において、ぼけた第1の画像の置換対象部分が第2の画像の置換部分と置換され、マージ画像を取得する。 In block S6, the replacement target portion of the blurred first image is replaced with the replacement portion of the second image, and the merged image is acquired.

既存の技術では、写真の背景(例えば、ポートレート写真の背景)をぼかすために、ぼかしソフトウェアアルゴリズムが使用される。背景に光源が存在すると、ぼけた写真の光源は、暗く見える。本開示の画像処理方法は、ぼけた写真上の光源を実際のフレア効果に置換することができる。実用的には、ぼけた第1の画像は、ぼけた背景を有する画像とすることができる。ぼけた第1の画像の光源(露出過大部分に対応する)は、第2の画像の置換部分と置換される。第2の画像は、光源に対してより良い光効果を有するように処理される。したがって、マージ画像は、実際のフレア効果を伴って改善される。 Existing techniques use blurring software algorithms to blur the background of a photo (eg, the background of a portrait photo). In the presence of a light source in the background, the light source in a blurred photo looks dark. The image processing method of the present disclosure can replace the light source on a blurred photo with an actual flare effect. Practically, the blurred first image can be an image with a blurred background. The blurred light source of the first image (corresponding to the overexposed portion) is replaced with the replacement portion of the second image. The second image is processed to have a better light effect on the light source. Therefore, the merged image is improved with the actual flare effect.

本開示の態様では、第1の写真撮影パラメータおよび第2の写真撮影パラメータは、焦点または非焦点に関するパラメータとすることができる。すなわち、第1の画像は、合焦画像とすることができ、第2の画像は、非合焦画像とすることができる。本開示の他の態様において、第1の写真撮影パラメータおよび第2の写真撮影パラメータは、露出に関するパラメータとすることができる。すなわち、第1の画像は、明環境に適合する第1の露出値を使用して取得される等露出画像とすることができ、第2の画像は、第1の露出値よりも小さい第2の露出値を使用して取得される露出過小画像とすることができる。2つの態様は、以下でさらに詳細に説明される。当業者は、本開示の概念が2つの態様に限定されないことを理解する。 In aspects of the present disclosure, the first photography parameter and the second photography parameter can be focal or defocusing parameters. That is, the first image can be an in-focus image and the second image can be an out-of-focus image. In another aspect of the present disclosure, the first photography parameter and the second photography parameter can be exposure parameters. That is, the first image can be an equi-exposure image obtained using a first exposure value that is compatible with the bright environment, and the second image is a second image that is smaller than the first exposure value. It can be an underexposed image obtained using the exposure value of. The two aspects are described in more detail below. Those skilled in the art will appreciate that the concepts of the present disclosure are not limited to the two aspects.

前述したブロックの動作により、本開示の画像処理方法は、実際のフレア効果を有するマージ画像を取得することができる。フレア効果が優れている。 By the operation of the block described above, the image processing method of the present disclosure can acquire a merged image having an actual flare effect. Excellent flare effect.

第1の画像が合焦画像であり、第2の画像が非合焦画像である状況において、図2を参照すると、本開示の画像処理方法の第1の実施形態は、ブロックにおいて以下の動作を含む。 In a situation where the first image is an in-focus image and the second image is an out-of-focus image, with reference to FIG. 2, the first embodiment of the image processing method of the present disclosure is the following operation in the block. including.

ブロックS11において、合焦画像が合焦状態で露出過大部分を有するかどうかが識別される。 In block S11, it is identified whether the focused image has an overexposed portion in the focused state.

ブロックS12において、合焦画像がぼかされ、ぼけた合焦画像を取得する。ぼけた合焦画像は、露出過大部分に対応するぼけた露出過大部分を含む。 In block S12, the in-focus image is blurred, and the out-of-focus image is acquired. The blurred in-focus image includes a blurred overexposed portion corresponding to the overexposed portion.

ブロックS13において、合焦画像が露出過大部分を有することに応じて、合焦画像と同一シーンの非合焦画像が取得され、非合焦画像は、合焦画像の露出過大部分に対応する素材部分を取得するように処理される。 In block S13, an unfocused image of the same scene as the in-focus image is acquired according to the overexposed portion of the in-focus image, and the out-of-focus image is a material corresponding to the overexposed portion of the in-focus image. Processed to get the part.

ブロックS14において、ぼけた合焦画像内の露出過大部分に対応するぼけた露出過大部分が素材部分に置き換えられ、マージ画像を取得する。 In block S14, the overexposed portion corresponding to the overexposed portion in the blurred in-focus image is replaced with the material portion, and the merged image is acquired.

合焦画像をぼかしてぼけた合焦画像を取得することは、ガウスぼかしアルゴリズムによって実行することができる。合焦画像は、全焦点深度を使用して合焦状態で撮影される。素材部分をぼかす度合いは、露出過大部分をぼかす度合いと略同一である。 Blurring the in-focus image to obtain a blurred in-focus image can be performed by a Gaussian blur algorithm. The in-focus image is taken in focus using the full depth of focus. The degree of blurring the material part is substantially the same as the degree of blurring the overexposed part.

図3を参照すると、画像処理方法の第1の実施形態は、本開示の画像処理装置111の第1の実施形態によって実施することができる。本開示の画像処理装置111の第1の実施形態は、ブロックS11からS14の動作をそれぞれ実行するように構成された、識別モジュール1111、ぼかしモジュール1112、処理モジュール1113、およびマージモジュール1114を含む。すなわち、識別モジュール1111は、合焦画像が合焦状態で露出過大部分を有するかどうかを識別するように構成される。ぼかしモジュール1112は、合焦画像をぼかし、露出過大部分に対応するぼけた露出過大部分を含むぼけた合焦画像を取得するように構成される。処理モジュール1113は、合焦画像と同一シーンを有する非合焦画像を取得し、合焦画像が露出過大部分を有することに応じて、非合焦画像を処理して合焦画像の露出過大部分に対応する素材部分を取得するように構成される。マージモジュール1114は、ぼけた合焦画像内の露出過大部分に対応するぼけた露出過大部分を素材部分と置換し、マージ画像を取得するように構成される。 With reference to FIG. 3, the first embodiment of the image processing method can be implemented by the first embodiment of the image processing apparatus 111 of the present disclosure. A first embodiment of the image processing apparatus 111 of the present disclosure includes an identification module 1111, a blur module 1112, a processing module 1113, and a merge module 1114 configured to perform the operations of blocks S11 to S14, respectively. That is, the identification module 1111 is configured to identify whether the focused image has an overexposed portion in the focused state. The blur module 1112 is configured to blur the in-focus image and acquire a blurred in-focus image including the overexposed portion corresponding to the overexposed portion. The processing module 1113 acquires an out-of-focus image having the same scene as the in-focus image, and processes the out-of-focus image in response to the in-focus image having an overexposed portion, so that the over-exposure portion of the in-focus image is obtained. It is configured to acquire the material part corresponding to. The merge module 1114 is configured to replace the overexposed portion corresponding to the overexposed portion in the blurred in-focus image with the material portion and acquire the merged image.

ぼかしモジュール1112は、合焦画像をぼかしてぼけた合焦画像を取得するためにガウスぼかしアルゴリズムを利用する。合焦画像は、全焦点深度を使用して合焦状態で撮影される。素材部分をぼかす度合いは、露出過大部分をぼかす度合いと略同一である。 The blur module 1112 uses a Gaussian blur algorithm to blur the in-focus image and obtain a blurred in-focus image. The in-focus image is taken in focus using the full depth of focus. The degree of blurring the material part is substantially the same as the degree of blurring the overexposed part.

図4および図6−図8を参照すると、本開示の制御方法の第1の実施形態が撮像装置10を制御するために利用される。制御方法は、ブロックにおいて以下の動作を含む。 With reference to FIGS. 4 and 6-8, the first embodiment of the control method of the present disclosure is utilized to control the imaging apparatus 10. The control method includes the following operations in the block.

ブロックS16において、撮像装置10は、同一シーンの合焦画像および非合焦画像を出力するように制御される。 In block S16, the imaging device 10 is controlled to output in-focus images and out-of-focus images of the same scene.

ブロックS11において、合焦画像が合焦状態で露出過大部分を有するかどうかが識別される。 In block S11, it is identified whether the focused image has an overexposed portion in the focused state.

ブロックS12において、合焦画像がぼかされ、ぼけた合焦画像を取得する。ぼけた合焦画像は、露出過大部分に対応するぼけた露出過大部分を含む。 In block S12, the in-focus image is blurred, and the out-of-focus image is acquired. The blurred in-focus image includes a blurred overexposed portion corresponding to the overexposed portion.

ブロックS13において、合焦画像が露出過大部分を有することに応じて、合焦画像と同一シーンの非合焦画像が取得され、非合焦画像は、合焦画像の露出過大部分に対応する素材部分を取得するように処理される。 In block S13, an unfocused image of the same scene as the in-focus image is acquired according to the overexposed portion of the in-focus image, and the out-of-focus image is a material corresponding to the overexposed portion of the in-focus image. Processed to get the part.

ブロックS14において、ぼけた合焦画像内の露出過大部分に対応するぼけた露出過大部分が素材部分に置き換えられ、マージ画像を取得する。 In block S14, the overexposed portion corresponding to the overexposed portion in the blurred in-focus image is replaced with the material portion, and the merged image is acquired.

合焦画像をぼかしてぼけた合焦画像を取得することは、ガウスぼかしアルゴリズムによって実行することができる。合焦画像は、全焦点深度を使用して合焦状態で撮影される。素材部分をぼかす度合いは、露出過大部分をぼかす度合いと略同一である。 Blurring the in-focus image to obtain a blurred in-focus image can be performed by a Gaussian blur algorithm. The in-focus image is taken in focus using the full depth of focus. The degree of blurring the material part is substantially the same as the degree of blurring the overexposed part.

図5を参照すると、制御方法の第1の実施形態は、本開示の制御装置11の第1の実施形態によって実施することができる。本開示の制御装置11の第1の実施形態では、制御装置11は、画像処理装置111の第1の実施形態にかかる画像処理装置111と、画像処理装置111と電気的に接続する制御モジュール112とを含む。画像処理装置111は、ブロックS11からS14の動作を実行するように構成される。制御モジュール112は、ブロックS16を実行するように構成される。画像処理装置111の構成は、前述した第1の実施形態で説明したので、ここでは詳述しない。制御モジュール112は、撮像装置10(図6から図8に示す)を制御して同一シーンの合焦画像および非合焦画像を出力するように構成される。 With reference to FIG. 5, the first embodiment of the control method can be implemented by the first embodiment of the control device 11 of the present disclosure. In the first embodiment of the control device 11 of the present disclosure, the control device 11 is a control module 112 that electrically connects the image processing device 111 according to the first embodiment of the image processing device 111 and the image processing device 111. And include. The image processing device 111 is configured to execute the operations of blocks S11 to S14. The control module 112 is configured to execute block S16. Since the configuration of the image processing device 111 has been described in the first embodiment described above, it will not be described in detail here. The control module 112 is configured to control the image pickup apparatus 10 (shown in FIGS. 6 to 8) to output in-focus images and out-of-focus images of the same scene.

図6を参照すると、本開示の撮像装置10の第1の実施形態は、制御装置11の第1の実施形態にかかる制御装置11と、制御装置11に電気的に接続されたカメラレンズ12とを含む。換言すれば、本実施形態の撮像装置10は、画像処理装置111の第1の実施形態にかかる画像処理装置111と、制御モジュール112と、カメラレンズ12とを含む。制御モジュール112、カメラレンズ12、および画像処理装置111は、全て互いに電気的に接続されている。 Referring to FIG. 6, the first embodiment of the imaging device 10 of the present disclosure includes a control device 11 according to the first embodiment of the control device 11 and a camera lens 12 electrically connected to the control device 11. including. In other words, the image pickup apparatus 10 of the present embodiment includes the image processing apparatus 111 according to the first embodiment of the image processing apparatus 111, the control module 112, and the camera lens 12. The control module 112, the camera lens 12, and the image processing device 111 are all electrically connected to each other.

図7および図8を参照すると、本開示の電子機器100の第1の実施形態は、撮像装置10の第1の実施形態にかかる撮像装置10を含む。電子機器100は、携帯電話、タブレット、ノートブックコンピュータ、スマートウォッチ、スマートリング、スマートヘルメット、スマートメガネ、他のVR(仮想現実)ウェアラブル機器、他のAR(拡張現実)ウェアラブル機器など、撮影機能を有する任意の種類の端末によって実行することができる。撮像装置10の台数が1台の場合、撮像装置10は、前面カメラまたは背面カメラとすることができる。撮像装置10の台数が2台の場合、2台の撮像装置10は、それぞれ、前面カメラおよび背面カメラとすることができるか、あるいは、2台の撮像装置10の双方とも、前面カメラであるか、あるいは、2台の撮像装置10の双方とも、背面カメラである。撮像装置10の台数が2台よりも多い場合、撮像装置10は、前面カメラおよび背面カメラを除く、トップカメラ、ボトムカメラ、ラテラルカメラなど、任意の位置に配置されたカメラとすることができる。 Referring to FIGS. 7 and 8, the first embodiment of the electronic device 100 of the present disclosure includes the imaging device 10 according to the first embodiment of the imaging device 10. The electronic device 100 has a shooting function such as a mobile phone, a tablet, a notebook computer, a smart watch, a smart ring, a smart helmet, a smart glasses, another VR (virtual reality) wearable device, and another AR (augmented reality) wearable device. It can be performed by any kind of terminal that has. When the number of image pickup devices 10 is one, the image pickup device 10 can be a front camera or a rear camera. When the number of image pickup devices 10 is two, can the two image pickup devices 10 be a front camera and a rear camera, respectively, or are both of the two image pickup devices 10 a front camera? Or, both of the two image pickup devices 10 are rear cameras. When the number of image pickup devices 10 is larger than two, the image pickup device 10 can be a camera arranged at an arbitrary position such as a top camera, a bottom camera, and a lateral camera, excluding the front camera and the rear camera.

例えば、図9に付随して、カメラレンズ12は、同一シーンの合焦画像(図9の左上部に示す)と非合焦画像(図9の右上部に示す)とを撮影する。合焦画像は、全焦点深度を使用して合焦状態で撮影される。識別後、合焦画像が露出過大部分、すなわち上部コーナーに細長管を有すると判定することができる。合焦画像はぼかされ、ぼけた合焦画像(図9の左下部に示す)を取得する。この例では、合焦画像の背景がぼかされている。合焦画像の露出過大部分(細長管)がぼかされ、ぼけた露出過大部分(細長管)を取得する。合焦画像が露出過大部分を有する場合は、非合焦画像が処理され、露出過大部分に対応する素材部分(細長管)を取得する。この例では、非合焦画像は、非合焦シーンを撮影することによって取得される。ぼけた合焦画像内の露出過大部分に対応するぼけた露出過大部分は、素材部分と置換され、マージ画像(図9の右下部)を取得する。 For example, accompanying FIG. 9, the camera lens 12 captures an in-focus image (shown in the upper left of FIG. 9) and an out-of-focus image (shown in the upper right of FIG. 9) of the same scene. The in-focus image is taken in focus using the full depth of focus. After identification, it can be determined that the focused image has an overexposed portion, i.e. an elongated tube at the upper corner. The in-focus image is blurred, and a blurred in-focus image (shown in the lower left of FIG. 9) is acquired. In this example, the background of the in-focus image is blurred. The overexposed part (elongated tube) of the in-focus image is blurred, and the overexposed part (elongated tube) that is blurred is acquired. If the in-focus image has an overexposed portion, the out-of-focus image is processed to acquire the material portion (elongated tube) corresponding to the overexposed portion. In this example, the out-of-focus image is acquired by capturing the out-of-focus scene. The overexposed portion corresponding to the overexposed portion in the blurred in-focus image is replaced with the material portion, and a merged image (lower right of FIG. 9) is acquired.

本開示の第1の実施形態にかかる画像処理方法、画像処理装置111、制御方法、制御装置11、撮像装置10、および電子機器100では、2つの画像が撮影され、一方は合焦画像であり、他方は非合焦画像であり、合焦画像の露出過大部分に対応する非合焦画像の素材部分が抽出された後にぼけた合焦画像にマージされ、実際のフレア効果を有するマージ画像を取得する。フレア効果が優れている。 In the image processing method, image processing device 111, control method, control device 11, image pickup device 10, and electronic device 100 according to the first embodiment of the present disclosure, two images are taken, one of which is a focused image. , The other is an out-of-focus image, where the material portion of the out-of-focus image corresponding to the overexposed portion of the in-focus image is extracted and then merged into the blurred in-focus image to create a merged image with the actual flare effect. get. Excellent flare effect.

図10を参照すると、本開示の画像処理方法の第2の実施形態は、画像処理方法の第1の実施形態と略同一であるが、合焦画像が合焦状態で露出過大部分を有するかどうかの識別は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 10, the second embodiment of the image processing method of the present disclosure is substantially the same as the first embodiment of the image processing method, but does the focused image have an overexposed portion in the focused state? Identification of whether further includes the following actions in the block:

ブロックS111において、合焦画像の露出過大画素数が第1の所定数以上であるかどうかが合焦画像のヒストグラムに応じて判定される。露出過大画素の画素値は、所定の画素値以上である。 In block S111, it is determined according to the histogram of the focused image whether or not the number of overexposed pixels of the focused image is equal to or greater than the first predetermined number. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value.

ブロックS112において、露出過大画素数が第1の所定数以上であることに応じて、合焦画像が露出過大部分を有すると判定される。 In block S112, it is determined that the in-focus image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

図11を参照すると、画像処理方法の第2の実施形態は、本開示の画像処理装置111の第2の実施形態によって実施することができる。本開示の画像処理装置111の第2の実施形態にかかる画像処理装置111は、画像処理装置111の第1の実施形態と略同一の構成を有するが、それらの差異は、第2の実施形態の画像処理装置111の識別モジュール1111がブロックS111およびS112の動作を実行するように構成された第1の判定サブモジュール11111および第2の判定サブモジュール11112を含むということである。すなわち、第1の判断サブモジュール1111は、合焦画像のヒストグラムに応じて、合焦画像内の露出過大画素数が第1の所定数以上であるかどうかを判定するように構成される。露出過大画素の画素値は、所定の画素値以上である。第1の判定サブモジュール11112は、露出過大画素数が第1の所定数以上であることに応じて、合焦画像が露出過大部分を有すると判定するように構成される。 With reference to FIG. 11, the second embodiment of the image processing method can be implemented by the second embodiment of the image processing apparatus 111 of the present disclosure. The image processing device 111 according to the second embodiment of the image processing device 111 of the present disclosure has substantially the same configuration as the first embodiment of the image processing device 111, but the difference between them is the second embodiment. The identification module 1111 of the image processing apparatus 111 of the above includes a first determination submodule 11111 and a second determination submodule 11112 configured to perform the operations of blocks S111 and S112. That is, the first determination submodule 1111 is configured to determine whether or not the number of overexposed pixels in the in-focus image is equal to or greater than the first predetermined number according to the histogram of the in-focus image. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value. The first determination submodule 11112 is configured to determine that the in-focus image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

図12を参照すると、一般的にいえば、画素値(グレー値)は、合焦画像のヒストグラムの横軸に沿って左から右へと増加し、所定の画素値(グレー値)の画素数は、合焦画像のヒストグラムの縦軸に沿って下から上へと増加する。画素値(グレー値)の範囲は、0から255の間、すなわち黒から白である。ピークが高いほど、所与の画素値(グレー値)の画素数は多くなる。 With reference to FIG. 12, generally speaking, the pixel value (gray value) increases from left to right along the horizontal axis of the histogram of the focused image, and the number of pixels of a predetermined pixel value (gray value). Increases from bottom to top along the vertical axis of the histogram of the focused image. The range of pixel values (gray values) is between 0 and 255, that is, from black to white. The higher the peak, the larger the number of pixels with a given pixel value (gray value).

第1の所定数は、ヒストグラムの右境界に近い画素数、すなわち露出過大画素数であるべきである。第1の所定数は、総画素数の3分の1に設定することができるが、これは例示に過ぎず、本開示は、これに限定されるものではない。 The first predetermined number should be the number of pixels near the right boundary of the histogram, that is, the number of overexposed pixels. The first predetermined number can be set to one-third of the total number of pixels, but this is merely an example, and the present disclosure is not limited thereto.

図13を参照すると、本開示の制御方法の第2の実施形態は、制御方法の第1の実施形態と略同一であるが、合焦画像が合焦状態で露出過大部分を有するかどうかの識別は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 13, the second embodiment of the control method of the present disclosure is substantially the same as the first embodiment of the control method, but whether or not the focused image has an overexposed portion in the focused state. Identification further includes the following actions in the block:

ブロックS111において、合焦画像の露出過大画素数が第1の所定数以上であるかどうかが合焦画像のヒストグラムに応じて判定される。露出過大画素の画素値は、所定の画素値以上である。 In block S111, it is determined according to the histogram of the focused image whether or not the number of overexposed pixels of the focused image is equal to or greater than the first predetermined number. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value.

ブロックS112において、露出過大画素数が第1の所定数以上であることに応じて、合焦画像が露出過大部分を有すると判定される。 In block S112, it is determined that the in-focus image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

図14を参照すると、制御方法の第2の実施形態は、本開示の制御装置11の第2の実施形態によって実施することができる。本開示の制御装置11の第2の実施形態にかかる制御装置11は、制御装置11の第1の実施形態と略同一の構造を有するが、それらの差異は、第2の実施形態の制御装置11の識別モジュール1111がブロックS111およびS112の動作を実行するように構成された第1の判定サブモジュール11111および第2の判定サブモジュール11112を含むということである。すなわち、第1の判断サブモジュール1111は、合焦画像のヒストグラムに応じて、合焦画像内の露出過大画素数が第1の所定数以上であるかどうかを判定するように構成される。露出過大画素の画素値は、所定の画素値以上である。第1の判定サブモジュール11112は、露出過大画素数が第1の所定数以上であることに応じて、合焦画像が露出過大部分を有すると判定するように構成される。 With reference to FIG. 14, the second embodiment of the control method can be implemented by the second embodiment of the control device 11 of the present disclosure. The control device 11 according to the second embodiment of the control device 11 of the present disclosure has substantially the same structure as the first embodiment of the control device 11, but the difference between them is the control device of the second embodiment. The identification module 1111 of 11 includes a first determination submodule 11111 and a second determination submodule 11112 configured to perform the operations of blocks S111 and S112. That is, the first determination submodule 1111 is configured to determine whether or not the number of overexposed pixels in the in-focus image is equal to or greater than the first predetermined number according to the histogram of the in-focus image. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value. The first determination submodule 11112 is configured to determine that the in-focus image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

図12を参照すると、一般的にいえば、画素値(グレー値)は、合焦画像のヒストグラムの横軸に沿って左から右へと増加し、所定の画素値(グレー値)の画素数は、合焦画像のヒストグラムの縦軸に沿って下から上へと増加する。画素値(グレー値)の範囲は、0から255の間、すなわち黒から白である。ピークが高いほど、所与の画素値(グレー値)の画素数は多くなる。 With reference to FIG. 12, generally speaking, the pixel value (gray value) increases from left to right along the horizontal axis of the histogram of the focused image, and the number of pixels of a predetermined pixel value (gray value). Increases from bottom to top along the vertical axis of the histogram of the focused image. The range of pixel values (gray values) is between 0 and 255, that is, from black to white. The higher the peak, the larger the number of pixels with a given pixel value (gray value).

第1の所定数は、ヒストグラムの右境界に近い画素数、すなわち露出過大画素数であるべきである。第1の所定数は、総画素数の3分の1に設定することができるが、これは例示に過ぎず、本開示は、これに限定されるものではない。 The first predetermined number should be the number of pixels near the right boundary of the histogram, that is, the number of overexposed pixels. The first predetermined number can be set to one-third of the total number of pixels, but this is merely an example, and the present disclosure is not limited thereto.

図15を参照すると、本開示の撮像装置10の第2の実施形態は、制御装置11の第2の実施形態にかかる制御装置11と、制御装置11に電気的に接続されたカメラレンズ12とを含む。換言すれば、本実施形態の撮像装置10は、画像処理装置111の第1の実施形態にかかる画像処理装置111と、制御モジュール112と、カメラレンズ12とを含む。制御モジュール112、カメラレンズ12、および画像処理装置111は、全て互いに電気的に接続されている。 Referring to FIG. 15, a second embodiment of the imaging device 10 of the present disclosure includes a control device 11 according to a second embodiment of the control device 11 and a camera lens 12 electrically connected to the control device 11. including. In other words, the image pickup apparatus 10 of the present embodiment includes the image processing apparatus 111 according to the first embodiment of the image processing apparatus 111, the control module 112, and the camera lens 12. The control module 112, the camera lens 12, and the image processing device 111 are all electrically connected to each other.

図16を参照すると、本開示の電子機器100の第2の実施形態は、撮像装置10の第2の実施形態にかかる撮像装置10を含む。電子機器100は、携帯電話、タブレット、ノートブックコンピュータ、スマートウォッチ、スマートリング、スマートヘルメット、スマートメガネ、他のVR(仮想現実)ウェアラブル機器、他のAR(拡張現実)ウェアラブル機器など、撮影機能を有する任意の種類の端末によって実行することができる。撮像装置10の台数が1台の場合、撮像装置10は、前面カメラまたは背面カメラとすることができる。撮像装置10の台数が2台の場合、2台の撮像装置10は、それぞれ、前面カメラおよび背面カメラとすることができるか、あるいは、2台の撮像装置10の双方とも、前面カメラであるか、あるいは、2台の撮像装置10の双方とも、背面カメラである。撮像装置10の台数が2台よりも多い場合、撮像装置10は、前面カメラおよび背面カメラを除く、トップカメラ、ボトムカメラ、ラテラルカメラなど、任意の位置に配置されたカメラとすることができる。 With reference to FIG. 16, the second embodiment of the electronic device 100 of the present disclosure includes the image pickup device 10 according to the second embodiment of the image pickup device 10. The electronic device 100 has a shooting function such as a mobile phone, a tablet, a notebook computer, a smart watch, a smart ring, a smart helmet, a smart glasses, another VR (virtual reality) wearable device, and another AR (augmented reality) wearable device. It can be performed by any kind of terminal that has. When the number of image pickup devices 10 is one, the image pickup device 10 can be a front camera or a rear camera. When the number of image pickup devices 10 is two, can the two image pickup devices 10 be a front camera and a rear camera, respectively, or are both of the two image pickup devices 10 a front camera? Or, both of the two image pickup devices 10 are rear cameras. When the number of image pickup devices 10 is larger than two, the image pickup device 10 can be a camera arranged at an arbitrary position such as a top camera, a bottom camera, and a lateral camera, excluding the front camera and the rear camera.

本開示の第2の実施形態にかかる画像処理方法、画像処理装置111、制御方法、制御装置11、撮像装置10、および電子機器100では、2つの画像が撮影され、一方は合焦画像であり、他方は非合焦画像であり、合焦画像の露出過大部分に対応する非合焦画像の素材部分が抽出された後にぼけた合焦画像にマージされ、実際のフレア効果を有するマージ画像を取得する。フレア効果が優れている。 In the image processing method, image processing device 111, control method, control device 11, image pickup device 10, and electronic device 100 according to the second embodiment of the present disclosure, two images are taken, one of which is a focused image. , The other is an out-of-focus image, where the material portion of the out-of-focus image corresponding to the overexposed portion of the in-focus image is extracted and then merged into the blurred in-focus image to create a merged image with the actual flare effect. get. Excellent flare effect.

図17を参照すると、本開示の画像処理方法の第3の実施形態は、画像処理方法の第1の実施形態と略同一であるが、合焦画像が合焦状態で露出過大部分を有するかどうかの識別は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 17, the third embodiment of the image processing method of the present disclosure is substantially the same as the first embodiment of the image processing method, but does the focused image have an overexposed portion in the focused state? Identification of whether further includes the following actions in the block:

ブロックS111において、合焦画像の露出過大画素数が第1の所定数以上であるかどうかが合焦画像のヒストグラムに応じて判定される。露出過大画素の画素値は、所定の画素値以上である。 In block S111, it is determined according to the histogram of the focused image whether or not the number of overexposed pixels of the focused image is equal to or greater than the first predetermined number. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value.

ブロックS112において、露出過大画素数が第1の所定数以上であることに応じて、合焦画像が露出過大部分を有すると判定される。 In block S112, it is determined that the in-focus image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

ブロックS113において、隣接した露出過大画素数が第2の所定数以上であるかどうかを判定することにより、合焦画像内に隣接した露出過大画素があるかどうかが判定される。 In block S113, it is determined whether or not there are adjacent overexposed pixels in the focused image by determining whether or not the number of adjacent overexposed pixels is equal to or greater than the second predetermined number.

ブロックS114において、合焦画像内に隣接した露出過大画素があると判定したことに応じて、隣接した露出過大画素が露出過大部分に属すると判定される。 In block S114, it is determined that the adjacent overexposed pixels belong to the overexposed portion according to the determination that there are adjacent overexposed pixels in the focused image.

図18を参照すると、画像処理方法の第3の実施形態は、本開示の画像処理装置111の第3の実施形態によって実施することができる。本開示の画像処理装置111の第3の実施形態にかかる画像処理装置111は、画像処理装置111の第1の実施形態と略同一の構成を有するが、それらの差異は、第3の実施形態の画像処理装置111の識別モジュール1111が、ブロックS111、S112、S113、およびS114の動作を実行するように構成された第1の判断サブモジュール11111、第1の判定サブモジュール11112、第2の判断サブモジュール11113、および第2の判定サブモジュール11114を含むということである。すなわち、第1の判断サブモジュール1111は、合焦画像のヒストグラムに応じて、合焦画像内の露出過大画素数が第1の所定数以上であるかどうかを判定するように構成される。露出過大画素の画素値は、所定の画素値以上である。第1の判定サブモジュール11112は、露出過大画素数が第1の所定数以上であることに応じて、合焦画像が露出過大部分を有すると判定するように構成される。第2の判断サブモジュール11113は、隣接した露出過大画素数が第2の所定数以上であるかどうかを判定することにより、合焦画像内に隣接した露出過大画素があるかどうかを判定するように構成される。第2の判定サブモジュール11114は、合焦画像内に隣接した露出過大画素があると判定することに応じて、隣接した露出過大画素が露出過大部分に属すると判定するように構成される。 With reference to FIG. 18, the third embodiment of the image processing method can be implemented by the third embodiment of the image processing apparatus 111 of the present disclosure. The image processing device 111 according to the third embodiment of the image processing device 111 of the present disclosure has substantially the same configuration as the first embodiment of the image processing device 111, but the difference between them is the third embodiment. First determination submodule 11111, first determination submodule 11112, second determination configured such that the identification module 1111 of the image processing apparatus 111 of the above is configured to perform the operations of blocks S111, S112, S113, and S114. It includes a submodule 11113 and a second determination submodule 11114. That is, the first determination submodule 1111 is configured to determine whether or not the number of overexposed pixels in the in-focus image is equal to or greater than the first predetermined number according to the histogram of the in-focus image. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value. The first determination submodule 11112 is configured to determine that the in-focus image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number. The second determination submodule 11113 determines whether or not there are adjacent overexposed pixels in the focused image by determining whether or not the number of adjacent overexposed pixels is equal to or greater than the second predetermined number. It is composed of. The second determination submodule 11114 is configured to determine that the adjacent overexposed pixels belong to the overexposed portion in response to determining that there are adjacent overexposed pixels in the focused image.

第1の所定数は、ノイズポイントを含むことがあるため、または合焦画像でさえも複数の隣接した露出過大画素を含むことがあるため、第2の所定数は、第1の所定数よりも小さくすべきであり、例えば、ともに露出過大部分に寄与する発散光線を有する複数の光源が存在する。 The second predetermined number is greater than the first predetermined number because the first predetermined number may include noise points, or even an in-focus image may contain a plurality of adjacent overexposed pixels. Should also be small, for example, there are multiple light sources that both have divergent rays that contribute to the overexposed portion.

図12を参照すると、一般的にいえば、画素値(グレー値)は、合焦画像のヒストグラムの横軸に沿って左から右へと増加し、所定の画素値(グレー値)の画素数は、合焦画像のヒストグラムの縦軸に沿って下から上へと増加する。画素値(グレー値)の範囲は、0から255の間、すなわち黒から白である。ピークが高いほど、所与の画素値(グレー値)の画素数は多くなる。 With reference to FIG. 12, generally speaking, the pixel value (gray value) increases from left to right along the horizontal axis of the histogram of the focused image, and the number of pixels of a predetermined pixel value (gray value). Increases from bottom to top along the vertical axis of the histogram of the focused image. The range of pixel values (gray values) is between 0 and 255, that is, from black to white. The higher the peak, the larger the number of pixels with a given pixel value (gray value).

第1の所定数および第2の所定数は、ヒストグラムの右境界に近い画素数、すなわち露出過大画素数であるべきである。第1の所定数は、総画素数の3分の1に設定することができ、第2の所定数は、総画素数の4分の1に設定することができるが、これは例示に過ぎず、本開示は、これに限定されるものではない。 The first predetermined number and the second predetermined number should be the number of pixels near the right boundary of the histogram, that is, the number of overexposed pixels. The first predetermined number can be set to one-third of the total number of pixels, and the second predetermined number can be set to one-fourth of the total number of pixels, but this is only an example. However, the present disclosure is not limited to this.

図19を参照すると、本開示の制御方法の第3の実施形態は、制御方法の第1の実施形態と略同一であるが、合焦画像が合焦状態で露出過大部分を有するかどうかの識別は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 19, the third embodiment of the control method of the present disclosure is substantially the same as the first embodiment of the control method, but whether or not the focused image has an overexposed portion in the focused state. Identification further includes the following actions in the block:

ブロックS111において、合焦画像の露出過大画素数が第1の所定数以上であるかどうかが合焦画像のヒストグラムに応じて判定される。露出過大画素の画素値は、所定の画素値以上である。 In block S111, it is determined according to the histogram of the focused image whether or not the number of overexposed pixels of the focused image is equal to or greater than the first predetermined number. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value.

ブロックS112において、露出過大画素数が第1の所定数以上であることに応じて、合焦画像が露出過大部分を有すると判定される。 In block S112, it is determined that the in-focus image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

ブロックS113において、隣接した露出過大画素数が第2の所定数以上であるかどうかを判定することにより、合焦画像内に隣接した露出過大画素があるかどうかが判定される。 In block S113, it is determined whether or not there are adjacent overexposed pixels in the focused image by determining whether or not the number of adjacent overexposed pixels is equal to or greater than the second predetermined number.

ブロックS114において、合焦画像内に隣接した露出過大画素があると判定したことに応じて、隣接した露出過大画素が露出過大部分に属すると判定される。 In block S114, it is determined that the adjacent overexposed pixels belong to the overexposed portion according to the determination that there are adjacent overexposed pixels in the focused image.

図20を参照すると、制御方法の第3の実施形態は、本開示の制御装置11の第3の実施形態によって実施することができる。本開示の制御装置11の第3の実施形態にかかる制御装置11は、制御装置11の第1の実施形態と略同一の構造を有するが、それらの差異は、第3の実施形態の制御装置11の識別モジュール1111が、ブロックS111、S112、S113、およびS114の動作を実行するように構成された第1の判断サブモジュール11111、第1の判定サブモジュール11112、第2の判断サブモジュール11113、および第2の判定サブモジュール11114を含むということである。すなわち、第1の判断サブモジュール1111は、合焦画像のヒストグラムに応じて、合焦画像内の露出過大画素数が第1の所定数以上であるかどうかを判定するように構成される。露出過大画素の画素値は、所定の画素値以上である。第1の判定サブモジュール11112は、露出過大画素数が第1の所定数以上であることに応じて、合焦画像が露出過大部分を有すると判定するように構成される。第2の判断サブモジュール11113は、隣接した露出過大画素数が第2の所定数以上であるかどうかを判定することにより、合焦画像内に隣接した露出過大画素があるかどうかを判定するように構成される。第2の判定サブモジュール11114は、合焦画像内に隣接した露出過大画素があると判定することに応じて、隣接した露出過大画素が露出過大部分に属すると判定するように構成される。 With reference to FIG. 20, the third embodiment of the control method can be implemented by the third embodiment of the control device 11 of the present disclosure. The control device 11 according to the third embodiment of the control device 11 of the present disclosure has substantially the same structure as the first embodiment of the control device 11, but the difference between them is the control device of the third embodiment. A first determination submodule 11111, a first determination submodule 11112, and a second determination submodule 11113, wherein the identification module 1111 of 11 is configured to perform the operations of blocks S111, S112, S113, and S114. And a second determination submodule 11114 is included. That is, the first determination submodule 1111 is configured to determine whether or not the number of overexposed pixels in the in-focus image is equal to or greater than the first predetermined number according to the histogram of the in-focus image. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value. The first determination submodule 11112 is configured to determine that the in-focus image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number. The second determination submodule 11113 determines whether or not there are adjacent overexposed pixels in the focused image by determining whether or not the number of adjacent overexposed pixels is equal to or greater than the second predetermined number. It is composed of. The second determination submodule 11114 is configured to determine that the adjacent overexposed pixels belong to the overexposed portion in response to determining that there are adjacent overexposed pixels in the focused image.

第1の所定数は、ノイズポイントを含むことがあるため、または合焦画像でさえも複数の隣接した露出過大画素を含むことがあるため、第2の所定数は、第1の所定数よりも小さくすべきであり、例えば、ともに露出過大部分に寄与する発散光線を有する複数の光源が存在する。 The second predetermined number is greater than the first predetermined number because the first predetermined number may include noise points, or even an in-focus image may contain a plurality of adjacent overexposed pixels. Should also be small, for example, there are multiple light sources that both have divergent rays that contribute to the overexposed portion.

図12を参照すると、一般的にいえば、画素値(グレー値)は、合焦画像のヒストグラムの横軸に沿って左から右へと増加し、所定の画素値(グレー値)の画素数は、合焦画像のヒストグラムの縦軸に沿って下から上へと増加する。画素値(グレー値)の範囲は、0から255の間、すなわち黒から白である。ピークが高いほど、所与の画素値(グレー値)の画素数は多くなる。 With reference to FIG. 12, generally speaking, the pixel value (gray value) increases from left to right along the horizontal axis of the histogram of the focused image, and the number of pixels of a predetermined pixel value (gray value). Increases from bottom to top along the vertical axis of the histogram of the focused image. The range of pixel values (gray values) is between 0 and 255, that is, from black to white. The higher the peak, the larger the number of pixels with a given pixel value (gray value).

第1の所定数および第2の所定数は、ヒストグラムの右境界に近い画素数、すなわち露出過大画素数であるべきである。第1の所定数は、総画素数の3分の1に設定することができ、第2の所定数は、総画素数の4分の1に設定することができるが、これは例示に過ぎず、本開示は、これに限定されるものではない。 The first predetermined number and the second predetermined number should be the number of pixels near the right boundary of the histogram, that is, the number of overexposed pixels. The first predetermined number can be set to one-third of the total number of pixels, and the second predetermined number can be set to one-fourth of the total number of pixels, but this is only an example. However, the present disclosure is not limited to this.

図21を参照すると、本開示の撮像装置10の第3の実施形態は、制御装置11の第3の実施形態にかかる制御装置11と、制御装置11に電気的に接続されたカメラレンズ12とを含む。換言すれば、本実施形態の撮像装置10は、画像処理装置111の第3の実施形態にかかる画像処理装置111と、制御モジュール112と、カメラレンズ12とを含む。制御モジュール112、カメラレンズ12、および画像処理装置111は、全て互いに電気的に接続されている。 Referring to FIG. 21, a third embodiment of the imaging device 10 of the present disclosure includes a control device 11 according to a third embodiment of the control device 11 and a camera lens 12 electrically connected to the control device 11. including. In other words, the image pickup apparatus 10 of the present embodiment includes the image processing apparatus 111 according to the third embodiment of the image processing apparatus 111, the control module 112, and the camera lens 12. The control module 112, the camera lens 12, and the image processing device 111 are all electrically connected to each other.

図22を参照すると、本開示の電子機器100の第3の実施形態は、撮像装置10の第3の実施形態にかかる撮像装置10を含む。電子機器100は、携帯電話、タブレット、ノートブックコンピュータ、スマートウォッチ、スマートリング、スマートヘルメット、スマートメガネ、他のVR(仮想現実)ウェアラブル機器、他のAR(拡張現実)ウェアラブル機器など、撮影機能を有する任意の種類の端末によって実行することができる。撮像装置10の台数が1台の場合、撮像装置10は、前面カメラまたは背面カメラとすることができる。撮像装置10の台数が2台の場合、2台の撮像装置10は、それぞれ、前面カメラおよび背面カメラとすることができるか、あるいは、2台の撮像装置10の双方とも、前面カメラであるか、あるいは、2台の撮像装置10の双方とも、背面カメラである。撮像装置10の台数が2台よりも多い場合、撮像装置10は、前面カメラおよび背面カメラを除く、トップカメラ、ボトムカメラ、ラテラルカメラなど、任意の位置に配置されたカメラとすることができる。 With reference to FIG. 22, the third embodiment of the electronic device 100 of the present disclosure includes the image pickup device 10 according to the third embodiment of the image pickup device 10. The electronic device 100 has a shooting function such as a mobile phone, a tablet, a notebook computer, a smart watch, a smart ring, a smart helmet, a smart glasses, another VR (virtual reality) wearable device, and another AR (augmented reality) wearable device. It can be performed by any kind of terminal that has. When the number of image pickup devices 10 is one, the image pickup device 10 can be a front camera or a rear camera. When the number of image pickup devices 10 is two, can the two image pickup devices 10 be a front camera and a rear camera, respectively, or are both of the two image pickup devices 10 a front camera? Or, both of the two image pickup devices 10 are rear cameras. When the number of image pickup devices 10 is larger than two, the image pickup device 10 can be a camera arranged at an arbitrary position such as a top camera, a bottom camera, and a lateral camera, excluding the front camera and the rear camera.

本開示の第3の実施形態にかかる画像処理方法、画像処理装置111、制御方法、制御装置11、撮像装置10、および電子機器100では、2つの画像が撮影され、一方は合焦画像であり、他方は非合焦画像であり、合焦画像の露出過大部分に対応する非合焦画像の素材部分が抽出された後にぼけた合焦画像にマージされ、実際のフレア効果を有するマージ画像を取得する。フレア効果が優れている。 In the image processing method, image processing device 111, control method, control device 11, image pickup device 10, and electronic device 100 according to the third embodiment of the present disclosure, two images are captured, one of which is a focused image. , The other is an out-of-focus image, where the material portion of the out-of-focus image corresponding to the overexposed portion of the in-focus image is extracted and then merged into the blurred in-focus image to create a merged image with the actual flare effect. get. Excellent flare effect.

図23を参照すると、本開示の画像処理方法の第4の実施形態は、画像処理方法の第1の実施形態と略同一であるが、画像処理方法の第4の実施形態は、さらに、ブロックにおいて以下の動作を含む。 Referring to FIG. 23, the fourth embodiment of the image processing method of the present disclosure is substantially the same as the first embodiment of the image processing method, but the fourth embodiment of the image processing method further blocks. Including the following operations.

ブロックS17において、合焦画像が露出過大部分を有するとの識別に応じてマージ画像が出力される。 In block S17, a merged image is output according to the identification that the focused image has an overexposed portion.

ブロックS18において、合焦画像が露出過大部分を有しないとの識別に応じてぼけた合焦画像が出力される。 In block S18, a blurred in-focus image is output according to the identification that the in-focus image does not have an overexposed portion.

図24を参照すると、画像処理方法の第4の実施形態は、本開示の画像処理装置111の第4の実施形態によって実施することができる。本開示の画像処理装置111の第4の実施形態にかかる画像処理装置111は、画像処理装置111の第1の実施形態と略同一の構成を有するが、それらの差異は、第4の実施形態にかかる画像処理装置111がブロックS17およびS18の動作を実行するように構成された第1の出力モジュール1117および第2の出力モジュール1118をさらに含むということである。すなわち、第1の出力モジュール1117は、合焦画像が露出過大部分を有するとの識別に応じてマージ画像を出力するように構成される。第2の出力モジュール1118は、合焦画像が露出過大部分を有しないとの識別に応じてぼけた合焦画像を出力するように構成される。 With reference to FIG. 24, the fourth embodiment of the image processing method can be implemented by the fourth embodiment of the image processing apparatus 111 of the present disclosure. The image processing device 111 according to the fourth embodiment of the image processing device 111 of the present disclosure has substantially the same configuration as the first embodiment of the image processing device 111, but the difference between them is the fourth embodiment. The image processing apparatus 111 according to the above further includes a first output module 1117 and a second output module 1118 configured to perform the operations of blocks S17 and S18. That is, the first output module 1117 is configured to output the merged image according to the identification that the focused image has an overexposed portion. The second output module 1118 is configured to output a blurred in-focus image according to the identification that the in-focus image does not have an overexposed portion.

図25を参照すると、本開示の制御方法の第4の実施形態は、制御方法の第1の実施形態と略同一であるが、制御方法の第4の実施形態は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 25, the fourth embodiment of the control method of the present disclosure is substantially the same as the first embodiment of the control method, but the fourth embodiment of the control method is further described in blocks below. Including operation.

ブロックS17において、合焦画像が露出過大部分を有するとの識別に応じてマージ画像が出力される。 In block S17, a merged image is output according to the identification that the focused image has an overexposed portion.

ブロックS18において、合焦画像が露出過大部分を有しないとの識別に応じてぼけた合焦画像が出力される。 In block S18, a blurred in-focus image is output according to the identification that the in-focus image does not have an overexposed portion.

図26を参照すると、制御方法の第4の実施形態は、本開示の制御装置11の第4の実施形態によって実施することができる。本開示の制御装置11の第4の実施形態にかかる制御装置11は、制御装置11の第1の実施形態と略同一の構造を有するが、それらの差異は、第4の実施形態の制御装置11がブロックS17およびS18の動作を実行するように構成された第1の出力モジュール1117および第2の出力モジュール1118をさらに含むということである。すなわち、第1の出力モジュール1117は、合焦画像が露出過大部分を有するとの識別に応じてマージ画像を出力するように構成される。第2の出力モジュール1118は、合焦画像が露出過大部分を有しないとの識別に応じてぼけた合焦画像を出力するように構成される。 With reference to FIG. 26, the fourth embodiment of the control method can be implemented by the fourth embodiment of the control device 11 of the present disclosure. The control device 11 according to the fourth embodiment of the control device 11 of the present disclosure has substantially the same structure as the first embodiment of the control device 11, but the difference between them is the control device of the fourth embodiment. 11 further includes a first output module 1117 and a second output module 1118 configured to perform the operations of blocks S17 and S18. That is, the first output module 1117 is configured to output the merged image according to the identification that the focused image has an overexposed portion. The second output module 1118 is configured to output a blurred in-focus image according to the identification that the in-focus image does not have an overexposed portion.

図27を参照すると、本開示の撮像装置10の第4の実施形態は、制御装置11の第4の実施形態にかかる制御装置11と、制御装置11に電気的に接続されたカメラレンズ12とを含む。換言すれば、本実施形態の撮像装置10は、画像処理装置111の第4の実施形態にかかる画像処理装置111と、制御モジュール112と、カメラレンズ12とを含む。制御モジュール112、カメラレンズ12、および画像処理装置111は、全て互いに電気的に接続されている。 Referring to FIG. 27, a fourth embodiment of the imaging device 10 of the present disclosure includes a control device 11 according to a fourth embodiment of the control device 11 and a camera lens 12 electrically connected to the control device 11. including. In other words, the image pickup apparatus 10 of the present embodiment includes the image processing apparatus 111 according to the fourth embodiment of the image processing apparatus 111, the control module 112, and the camera lens 12. The control module 112, the camera lens 12, and the image processing device 111 are all electrically connected to each other.

図28を参照すると、本開示の電子機器100の第4の実施形態は、撮像装置10の第4の実施形態にかかる撮像装置10を含む。電子機器100は、携帯電話、タブレット、ノートブックコンピュータ、スマートウォッチ、スマートリング、スマートヘルメット、スマートメガネ、他のVR(仮想現実)ウェアラブル機器、他のAR(拡張現実)ウェアラブル機器など、撮影機能を有する任意の種類の端末によって実行することができる。撮像装置10の台数が1台の場合、撮像装置10は、前面カメラまたは背面カメラとすることができる。撮像装置10の台数が2台の場合、2台の撮像装置10は、それぞれ、前面カメラおよび背面カメラとすることができるか、あるいは、2台の撮像装置10の双方とも、前面カメラであるか、あるいは、2台の撮像装置10の双方とも、背面カメラである。撮像装置10の台数が2台よりも多い場合、撮像装置10は、前面カメラおよび背面カメラを除く、トップカメラ、ボトムカメラ、ラテラルカメラなど、任意の位置に配置されたカメラとすることができる。 Referring to FIG. 28, a fourth embodiment of the electronic device 100 of the present disclosure includes an imaging device 10 according to a fourth embodiment of the imaging device 10. The electronic device 100 has a shooting function such as a mobile phone, a tablet, a notebook computer, a smart watch, a smart ring, a smart helmet, a smart glasses, another VR (virtual reality) wearable device, and another AR (augmented reality) wearable device. It can be performed by any kind of terminal that has. When the number of image pickup devices 10 is one, the image pickup device 10 can be a front camera or a rear camera. When the number of image pickup devices 10 is two, can the two image pickup devices 10 be a front camera and a rear camera, respectively, or are both of the two image pickup devices 10 a front camera? Or, both of the two image pickup devices 10 are rear cameras. When the number of image pickup devices 10 is larger than two, the image pickup device 10 can be a camera arranged at an arbitrary position such as a top camera, a bottom camera, and a lateral camera, excluding the front camera and the rear camera.

本開示の第4の実施形態にかかる画像処理方法、画像処理装置111、制御方法、制御装置11、撮像装置10、および電子機器100では、2つの画像が撮影され、一方は合焦画像であり、他方は非合焦画像であり、合焦画像の露出過大部分に対応する非合焦画像の素材部分が抽出された後にぼけた合焦画像にマージされ、実際のフレア効果を有するマージ画像を取得する。フレア効果が優れている。 In the image processing method, image processing device 111, control method, control device 11, image pickup device 10, and electronic device 100 according to the fourth embodiment of the present disclosure, two images are captured, one of which is a focused image. , The other is an out-of-focus image, where the material portion of the out-of-focus image corresponding to the overexposed portion of the in-focus image is extracted and then merged into the blurred in-focus image to create a merged image with the actual flare effect. get. Excellent flare effect.

ブロックS17およびS18はまた、画像処理方法の第2の実施形態および制御方法の第2の実施形態にも適用可能であることが理解することができる。対応して、第1の出力モジュール1117および第2の出力モジュール1118はまた、画像処理装置の第2の実施形態、制御装置の第2の実施形態、画像処理装置の第2の実施形態、および電子機器の第2の実施形態にも適用可能である。ブロックS17およびS18はまた、画像処理方法の第3の実施形態および制御方法の第3の実施形態にも適用可能である。対応して、第1の出力モジュール1117および第2の出力モジュール1118はまた、画像処理装置の第3の実施形態、制御装置の第3の実施形態、画像処理装置の第3の実施形態、および電子機器の第3の実施形態にも適用可能である。 It can be understood that the blocks S17 and S18 are also applicable to the second embodiment of the image processing method and the second embodiment of the control method. Correspondingly, the first output module 1117 and the second output module 1118 also include a second embodiment of the image processing apparatus, a second embodiment of the control apparatus, a second embodiment of the image processing apparatus, and It is also applicable to the second embodiment of the electronic device. Blocks S17 and S18 are also applicable to the third embodiment of the image processing method and the third embodiment of the control method. Correspondingly, the first output module 1117 and the second output module 1118 also include a third embodiment of the image processing apparatus, a third embodiment of the control apparatus, a third embodiment of the image processing apparatus, and It is also applicable to the third embodiment of the electronic device.

図29を参照すると、前述した第1から第4の実施形態にかかる制御方法において、同一シーンの合焦画像および非合焦画像を出力するように撮像装置10を制御すること(ブロックS16)は、ブロックにおいて以下の動作を含むことができる。 Referring to FIG. 29, in the control method according to the first to fourth embodiments described above, controlling the image pickup apparatus 10 so as to output an in-focus image and an out-of-focus image of the same scene (block S16) , The block can include the following actions.

ブロックS161において、撮像装置は、合焦画像を取得するために合焦するように制御される。 In block S161, the imaging device is controlled to focus in order to acquire a focused image.

ブロックS162において、撮像装置は、対応するぼかし度合いを取得するために、合焦状態とは異なる再合焦状態で撮像装置によって出力されたバッファ画像を再合焦して処理するように制御される。 In block S162, the image pickup apparatus is controlled to refocus and process the buffer image output by the image pickup apparatus in a refocused state different from the focused state in order to acquire the corresponding degree of blurring. ..

ブロックS163において、合焦画像のぼかし度合いと略同一のぼかし度合いを有するバッファ画像が非合焦画像として保存される。 In block S163, a buffer image having a degree of blurring substantially the same as the degree of blurring of the focused image is saved as a non-focused image.

対応して、図30を参照すると、第1から第4の実施形態にかかる制御装置11の制御モジュール112は、ブロックS161、S162、およびS163の動作を実行するように構成された合焦サブモジュール1121、再合焦サブモジュール1122、および保存サブモジュール1123を含む。すなわち、合焦サブモジュール1121は、合焦画像を取得するために合焦させるように撮像装置を制御するように構成される。再合焦サブモジュール1122は、対応するぼかし度合いを取得するために合焦状態とは異なる再合焦状態で撮像装置によって出力されたバッファ画像を再合焦させて処理するように撮像装置を制御するように構成される。保存サブモジュール1123は、非合焦画像として、合焦画像をぼかす度合いと略同一のぼやけ度合いを有するバッファ画像を保存するように構成される。 Correspondingly, referring to FIG. 30, the control module 112 of the control device 11 according to the first to fourth embodiments is a focusing submodule configured to perform the operations of the blocks S161, S162, and S163. Includes 1121, refocusing submodule 1122, and storage submodule 1123. That is, the focusing submodule 1121 is configured to control the imaging device to focus in order to acquire a focused image. The refocusing submodule 1122 controls the imaging device to refocus and process the buffer image output by the imaging device in a refocusing state different from the focusing state in order to obtain the corresponding degree of blurring. It is configured to do. The storage submodule 1123 is configured to store as a non-focused image a buffer image having substantially the same degree of blurring as the degree of blurring of the focused image.

対応して、第1から第4の実施形態にかかる撮像装置10および電子機器100の制御モジュール112もまた、合焦サブモジュール1121、再合焦サブモジュール1122、および保存サブモジュール1123を含むことができ、その構造および機能は、上記と同一であり、ここでは詳述しない。 Correspondingly, the control module 112 of the imaging device 10 and the electronic device 100 according to the first to fourth embodiments may also include a focusing submodule 1121, a refocusing submodule 1122, and a storage submodule 1123. Yes, its structure and function are the same as above and will not be detailed here.

第1の画像が等露出画像であり、第2の画像が露出過小画像である状況において、図31を参照すると、本開示の画像処理方法の第5の実施形態は、ブロックにおいて以下の動作を含む。 In a situation where the first image is an equiexposed image and the second image is an underexposed image, with reference to FIG. 31, the fifth embodiment of the image processing method of the present disclosure performs the following operations in the block. Including.

ブロックS21において、明環境と一致する第1の露出値を使用して露出することによって等露出画像が取得され、等露出画像が露出過大部分を有するかどうかが識別される。 In block S21, an equal exposure image is obtained by exposing using a first exposure value that matches the bright environment, and it is identified whether the equal exposure image has an overexposed portion.

ブロックS22において、等露出画像がぼかされ、ぼけた等露出画像を取得する。ぼけた等露出画像は、露出過大部分に対応するぼけた露出過大部分を含む。 In the block S22, the equal exposure image is blurred, and the blurred equal exposure image is acquired. An overexposed image such as a blur includes an overexposed portion that corresponds to an overexposed portion.

ブロックS23において、等露出画像が露出過大部分を有することに応じて、第2の露出量を使用して露出することによって等露出画像と同一シーンを有する露出過小画像が取得され、露出過小画像がぼかされてぼけた露出河床画像を取得し、露出過小画像は、露出過大部分に対応する素材部分を含み、ぼけた露出過小画像は、露出過大部分に対応するぼけた素材部分を含み、第2の露出値は、第1の露出値よりも小さい。 In block S23, depending on that the equal exposure image has an overexposed portion, an underexposed image having the same scene as the equal exposure image is acquired by exposing using the second exposure amount, and the underexposed image is obtained. A blurred and blurred exposed riverbed image is acquired, the underexposed image contains the material portion corresponding to the overexposed portion, and the blurred underexposed image contains the blurred material portion corresponding to the overexposed portion. The exposure value of 2 is smaller than the first exposure value.

ブロックS24において、ぼけた素材部分の輝度が増やされて偽の露出過大部分を取得する。 In block S24, the brightness of the blurred material portion is increased to obtain a false overexposed portion.

ブロックS25において、ぼけた等露出画像のぼけた露出過大部分が偽の露出過大部分と置換され、マージ画像を取得する。 In block S25, the overexposed portion of the blurred or otherwise exposed image is replaced with a false overexposed portion, and a merged image is acquired.

等露出画像をぼかし、ぼけた等露出画像を取得することは、ガウスぼかしアルゴリズムによって実行することができ、および/または露出過小画像をぼかし、ぼけた露出過小画像を取得することは、ガウスぼかしアルゴリズムによって実行することができる。偽の露出過大部分を取得するためにぼけた素材部分の輝度を増やすことは、偽の露出過大部分を取得するためにN倍にぼけた露出過小画像の輝度を増やすことによって実施することができ、Nは、第2の露出値に対する第1の露出値の比である。 Blurring an equal-exposure image and obtaining a blurred equal-exposure image can be performed by the Gaussian blur algorithm, and / or blurring an underexposed image and obtaining a blurred underexposed image can be performed by the Gaussian blur algorithm. Can be done by. Increasing the brightness of the blurred material portion to obtain the fake overexposed portion can be performed by increasing the brightness of the underexposed image N times blurred to obtain the fake overexposed portion. , N is the ratio of the first exposure value to the second exposure value.

図32を参照すると、画像処理方法の第5の実施形態は、本開示の画像処理装置111の第5の実施形態によって実施することができる。本開示の画像処理装置111の第5の実施形態は、それぞれ、ブロックS21からS25を実行するように構成された識別モジュール1111、第1のぼかしモジュール11121、第2のぼかしモジュール11122、輝度増加モジュール1116、およびマージモジュール1115を含む。すなわち、識別モジュール1111は、明環境に一致する第1の露出値を使用して露出することによって等露出画像を取得し、等露出画像が露出過大部分を有するかどうかを識別するように構成される。第1のぼかしモジュール11121は、等露出画像をぼかし、露出過大部分に対応するぼけた露出過大部分を含むぼけた等露出画像を取得するように構成される。等露出画像が露出過剰部分を有することに応じて、第2のぼかしモジュール11122は、第2の露出値を使用して露出することによって等露出画像と同一シーンを有する露出過小画像を取得し、露出過小画像をぼかしてぼけた露出過小画像を取得するように構成され、露出過小画像は、露出過大部分に対応する素材部分を含み、ぼけた露出過小画像は、露出過大部分に対応するぼけた素材部分を含み、第2の露出値は、第1の露出値よりも小さい。輝度増加モジュール1116は、ぼけた素材部分の輝度を増やして偽の露出過大部分を取得するように構成される。マージモジュール1115は、ぼけた等露出画像のぼけた露出過大部分を偽の露出過大部分と置換してマージ画像を取得するように構成される。 With reference to FIG. 32, the fifth embodiment of the image processing method can be implemented by the fifth embodiment of the image processing apparatus 111 of the present disclosure. A fifth embodiment of the image processing apparatus 111 of the present disclosure is an identification module 1111, a first blurring module 11121, a second blurring module 11122, and a brightness increasing module configured to execute blocks S21 to S25, respectively. Includes 1116, and merge module 1115. That is, the identification module 1111 is configured to acquire an equiexposed image by exposing it using a first exposure value that matches the bright environment and identify whether the equiexposed image has an overexposed portion. To. The first blur module 11121 is configured to blur an equal exposure image and acquire a blurred equal exposure image including a blurred overexposed portion corresponding to the overexposed portion. In response to the equal exposure image having an overexposed portion, the second blur module 11122 acquires an underexposed image having the same scene as the equal exposure image by exposing using the second exposure value. The underexposed image is configured to blur the underexposed image to obtain a blurred underexposed image, the underexposed image contains a material portion corresponding to the overexposed portion, and the blurred underexposed image is blurred corresponding to the overexposed portion. The second exposure value is smaller than the first exposure value, including the material portion. The brightness increase module 1116 is configured to increase the brightness of the blurred material portion to obtain a false overexposed portion. The merge module 1115 is configured to replace the overexposed portion of the blurred or otherwise exposed image with a false overexposed portion to obtain the merged image.

第1のぼかしモジュール11121は、ガウスぼかしアルゴリズムを採用して、等露出画像をぼかし、ぼけた等露出画像を取得し、および/または第2のぼかしモジュール11122は、ガウスぼかしアルゴリズムを採用して、露出過小画像をぼかし、ぼけた露出過小画像を取得する。ぼけた素材部分の輝度を増加させて偽の露出過大部分を取得する際に、輝度増加モジュール1116は、ぼけた露出過小画像の輝度をN倍に増やして偽の露出過大部分を取得することができ、Nは、第2の露出値に対する第1の露出値の比である。 The first blur module 11121 employs a Gaussian blur algorithm to blur an equiexposed image and obtain a blurred equiexposed image, and / or the second blur module 11122 employs a Gaussian blur algorithm. Blur the underexposed image and get a blurred underexposed image. When increasing the brightness of the blurred material portion to obtain a false overexposed portion, the brightness increasing module 1116 may increase the brightness of the blurred underexposed image by N times to obtain a false overexposed portion. Yes, N is the ratio of the first exposure value to the second exposure value.

図33および図35−図37を参照すると、本開示の制御方法の第5の実施形態が撮像装置10を制御するために利用される。制御方法は、ブロックにおいて以下の動作を含む。 With reference to FIGS. 33 and 35-37, a fifth embodiment of the control method of the present disclosure is utilized to control the imaging device 10. The control method includes the following operations in the block.

ブロックS26において、撮像装置10は、同一シーンの等露出画像および露出過小画像を出力するように制御される。 In block S26, the imaging device 10 is controlled to output an equally exposed image and an underexposed image of the same scene.

ブロックS21において、明環境と一致する第1の露出値を使用して露出することによって等露出画像が取得され、等露出画像が露出過大部分を有するかどうかが識別される。 In block S21, an equal exposure image is obtained by exposing using a first exposure value that matches the bright environment, and it is identified whether the equal exposure image has an overexposed portion.

ブロックS22において、等露出画像がぼかされ、ぼけた等露出画像を取得する。ぼけた等露出画像は、露出過大部分に対応するぼけた露出過大部分を含む。 In the block S22, the equal exposure image is blurred, and the blurred equal exposure image is acquired. An overexposed image such as a blur includes an overexposed portion that corresponds to an overexposed portion.

ブロックS23において、等露出画像が露出過大部分を有することに応じて、第2の露出量を使用して露出することによって等露出画像と同一シーンを有する露出過小画像が取得され、露出過小画像がぼかされてぼけた露出河床画像を取得し、露出過小画像は、露出過大部分に対応する素材部分を含み、ぼけた露出過小画像は、露出過大部分に対応するぼけた素材部分を含み、第2の露出値は、第1の露出値よりも小さい。 In block S23, depending on that the equal exposure image has an overexposed portion, an underexposed image having the same scene as the equal exposure image is acquired by exposing using the second exposure amount, and the underexposed image is obtained. A blurred and blurred exposed riverbed image is acquired, the underexposed image contains the material portion corresponding to the overexposed portion, and the blurred underexposed image contains the blurred material portion corresponding to the overexposed portion. The exposure value of 2 is smaller than the first exposure value.

ブロックS24において、ぼけた素材部分の輝度が増やされて偽の露出過大部分を取得する。 In block S24, the brightness of the blurred material portion is increased to obtain a false overexposed portion.

ブロックS25において、ぼけた等露出画像のぼけた露出過大部分が偽の露出過大部分と置換され、マージ画像を取得する。 In block S25, the overexposed portion of the blurred or otherwise exposed image is replaced with a false overexposed portion, and a merged image is acquired.

等露出画像をぼかし、ぼけた等露出画像を取得することは、ガウスぼかしアルゴリズムによって実行することができ、および/または露出過小画像をぼかし、ぼけた露出過小画像を取得することは、ガウスぼかしアルゴリズムによって実行することができる。偽の露出過大部分を取得するためにぼけた素材部分の輝度を増やすことは、偽の露出過大部分を取得するためにN倍にぼけた露出過小画像の輝度を増やすことによって実施することができ、Nは、第2の露出値に対する第1の露出値の比である。 Blurring an equal-exposure image and obtaining a blurred equal-exposure image can be performed by the Gaussian blur algorithm, and / or blurring an underexposed image and obtaining a blurred underexposed image can be performed by the Gaussian blur algorithm. Can be done by. Increasing the brightness of the blurred material portion to obtain the fake overexposed portion can be performed by increasing the brightness of the underexposed image N times blurred to obtain the fake overexposed portion. , N is the ratio of the first exposure value to the second exposure value.

図34を参照すると、制御方法の第5の実施形態は、本開示の制御装置11の第5の実施形態によって実施することができる。本開示の制御装置11の第5の実施形態では、制御装置11は、画像処理装置111の第5の実施形態にかかる画像処理装置111と、画像処理装置111と電気的に接続する制御モジュール112とを含む。画像処理装置111は、ブロックS21からS25を実行するように構成される。制御モジュール112は、ブロックS26を実行するように構成される。画像処理装置111の構成は、前述した第5の実施形態で説明したので、ここでは詳述しない。制御モジュール112は、撮像装置10(図35から図37に示す)を制御して同一シーンの等露出画像および露出過小画像を出力するように構成される。 With reference to FIG. 34, the fifth embodiment of the control method can be implemented by the fifth embodiment of the control device 11 of the present disclosure. In the fifth embodiment of the control device 11 of the present disclosure, the control device 11 is a control module 112 that electrically connects the image processing device 111 according to the fifth embodiment of the image processing device 111 and the image processing device 111. And include. The image processing device 111 is configured to execute blocks S21 to S25. The control module 112 is configured to execute block S26. Since the configuration of the image processing device 111 has been described in the fifth embodiment described above, it will not be described in detail here. The control module 112 is configured to control the image pickup apparatus 10 (shown in FIGS. 35 to 37) to output an equally exposed image and an underexposed image of the same scene.

図35を参照すると、本開示の撮像装置10の第5の実施形態は、制御装置11の第5の実施形態にかかる制御装置11と、制御装置11に電気的に接続されたカメラレンズ12とを含む。換言すれば、本実施形態の撮像装置10は、画像処理装置111の第5の実施形態にかかる画像処理装置111と、制御モジュール112と、カメラレンズ12とを含む。制御モジュール112、カメラレンズ12、および画像処理装置111は、全て互いに電気的に接続されている。 Referring to FIG. 35, a fifth embodiment of the imaging device 10 of the present disclosure includes a control device 11 according to a fifth embodiment of the control device 11 and a camera lens 12 electrically connected to the control device 11. including. In other words, the image pickup apparatus 10 of the present embodiment includes the image processing apparatus 111 according to the fifth embodiment of the image processing apparatus 111, the control module 112, and the camera lens 12. The control module 112, the camera lens 12, and the image processing device 111 are all electrically connected to each other.

図36および図8を参照すると、本開示の電子機器100の第5の実施形態は、撮像装置10の第5の実施形態にかかる撮像装置10を含む。電子機器100は、携帯電話、タブレット、ノートブックコンピュータ、スマートウォッチ、スマートリング、スマートヘルメット、スマートメガネ、他のVR(仮想現実)ウェアラブル機器、他のAR(拡張現実)ウェアラブル機器など、撮影機能を有する任意の種類の端末によって実行することができる。撮像装置10の台数が1台の場合、撮像装置10は、前面カメラまたは背面カメラとすることができる。撮像装置10の台数が2台の場合、2台の撮像装置10は、それぞれ、前面カメラおよび背面カメラとすることができるか、あるいは、2台の撮像装置10の双方とも、前面カメラであるか、あるいは、2台の撮像装置10の双方とも、背面カメラである。撮像装置10の台数が2台よりも多い場合、撮像装置10は、前面カメラおよび背面カメラを除く、トップカメラ、ボトムカメラ、ラテラルカメラなど、任意の位置に配置されたカメラとすることができる。 With reference to FIGS. 36 and 8, the fifth embodiment of the electronic device 100 of the present disclosure includes the imaging device 10 according to the fifth embodiment of the imaging device 10. The electronic device 100 has a shooting function such as a mobile phone, a tablet, a notebook computer, a smart watch, a smart ring, a smart helmet, a smart glasses, another VR (virtual reality) wearable device, and another AR (augmented reality) wearable device. It can be performed by any kind of terminal that has. When the number of image pickup devices 10 is one, the image pickup device 10 can be a front camera or a rear camera. When the number of image pickup devices 10 is two, can the two image pickup devices 10 be a front camera and a rear camera, respectively, or are both of the two image pickup devices 10 a front camera? Or, both of the two image pickup devices 10 are rear cameras. When the number of image pickup devices 10 is larger than two, the image pickup device 10 can be a camera arranged at an arbitrary position such as a top camera, a bottom camera, and a lateral camera, excluding the front camera and the rear camera.

例えば、図37に付随して、カメラレンズ12は、同一シーン内で等露出画像および露出過小画像を撮影するために使用される。説明のために、実際に撮影された2つの画像が図37に示されている。2つの画像のシーンは、完全に同一ではない。しかしながら、本開示の実装において、等露出画像および露出過小画像を撮影するのにかかる時間は非常に短く、同一シーンが完全に実行することができる。等露出画像は、明環境に一致する第1の露出値を使用して露出することによって取得される。露出過小画像は、第1の露出値よりも小さい第2の露出値を使用した露出値によって取得される。識別後、等露出画像が露出過大部分、すなわち右側に円形光源を有すると決定することができる。露出過小画像は、露出過大部分(円形光源)に対応する素材部分(円形光源)を含む。次に、等露出画像がぼかされ、ぼけた等露出画像を取得する。この例では、等露出画像の背景がぼかされている。図37に示されているのは、主に背景部分であり、画像全体ではない。露出過小画像がぼかされ、ぼけた露出過小画像を取得する。この例では、露出過小画像をぼかすために採用される手法は、等露出画像をぼかすために採用される手法と同一または同様とすることができる。ぼけた等露出画像の露出過大部分(円形光源)がぼかされ、ぼけた露出過大部分(円形光源)を取得する。ぼけた露出過小画像の素材部分(円形光源)がぼかされ、ぼけた素材部分(円形光源)を取得する。ぼけた素材部分の輝度が増やされて偽の露出過大部分を取得する。実施形態では、ぼけた露出過小画像の輝度は、全体的に増やすことができ、その間にぼけた素材部分の輝度も同様に増やされる。あるいは、それは、ぼけた素材部分の輝度を増やすのみで実行することができる。最後に、ぼけた等露出画像のぼけた露出過大部分が偽の露出過大部分と置換され、マージ画像を取得する。 For example, accompanying FIG. 37, the camera lens 12 is used to capture an evenly exposed image and an underexposed image in the same scene. For illustration purposes, two images actually taken are shown in FIG. The scenes in the two images are not exactly the same. However, in the implementation of the present disclosure, the time required to capture an equiexposed image and an underexposed image is very short, and the same scene can be completely executed. The equi-exposure image is acquired by exposing using a first exposure value that matches the bright environment. The underexposed image is acquired by an exposure value using a second exposure value that is smaller than the first exposure value. After identification, it can be determined that the equiexposed image has an overexposed portion, i.e. a circular light source on the right side. The underexposed image includes a material portion (circular light source) corresponding to the overexposed portion (circular light source). Next, the equal exposure image is blurred, and the blurred equal exposure image is acquired. In this example, the background of the equiexposed image is blurred. What is shown in FIG. 37 is mainly the background portion, not the entire image. The underexposed image is blurred and the underexposed image is acquired. In this example, the technique used to blur the underexposed image can be the same as or similar to the technique used to blur the evenly exposed image. The overexposed portion (circular light source) of an overexposed image such as a blur is blurred, and the overexposed portion (circular light source) that is blurred is acquired. Blurred Underexposed The material part (circular light source) of the image is blurred, and the blurred material part (circular light source) is acquired. The brightness of the blurred material part is increased to obtain a fake overexposed part. In the embodiment, the brightness of the blurred underexposed image can be increased overall, while the brightness of the blurred material portion is also increased. Alternatively, it can only be done by increasing the brightness of the blurred material portion. Finally, the overexposed portion of the blurred or otherwise exposed image is replaced with a false overexposed portion to obtain a merged image.

本開示にかかる画像処理方法、画像処理装置111、制御方法、制御装置11、撮像装置10、および電子機器100では、2つの画像が撮影され、一方は等露出画像であり、他方は露出過小画像であり、2つの画像は、双方ともぼけており、そして、ぼけた露出過大部分の輝度が増加され、対応する偽の露出過大部分が抽出され、ぼけた等露出画像のぼけた露出過大部分が偽の露出過大部分に置換され、実際のフレア効果を有するぼけた画像にマージする。フレア効果が優れている。 In the image processing method, the image processing device 111, the control method, the control device 11, the image pickup device 10, and the electronic device 100 according to the present disclosure, two images are taken, one is an equal exposure image and the other is an underexposed image. The two images are both blurred, and the brightness of the blurred overexposed portion is increased, the corresponding false overexposed portion is extracted, and the blurred overexposed portion of the blurred or other overexposed image is Replaced by a fake overexposed portion and merged into a blurred image with the actual flare effect. Excellent flare effect.

図38を参照すると、本開示の画像処理方法の第6の実施形態は、画像処理方法の第5の実施形態と略同一であるが、等露出画像が露出過大部分を有するかどうかの識別は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 38, the sixth embodiment of the image processing method of the present disclosure is substantially the same as the fifth embodiment of the image processing method, but the identification of whether or not the equiexposed image has an overexposed portion can be determined. In addition, the block includes the following actions.

ブロックS211において、等露出画像内の露出過大画素数が第1の所定数以上であるかどうかが等露出画像のヒストグラムに応じて判定される。露出過大画素の画素値は、所定の画素値以上である。 In block S211 it is determined according to the histogram of the equal exposure image whether or not the number of overexposed pixels in the equal exposure image is equal to or more than the first predetermined number. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value.

ブロックS212において、露出過大画素数が第1の所定数以上であることに応じて、等露出画像が露出過大部分を有すると判定される。 In block S212, it is determined that the equally exposed image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

図39を参照すると、画像処理方法の第6の実施形態は、本開示の画像処理装置111の第6の実施形態によって実施することができる。本開示の画像処理装置111の第6の実施形態にかかる画像処理装置111は、画像処理装置111の第5の実施形態と略同一の構成を有するが、それらの差異は、第6の実施形態の画像処理装置111の識別モジュール1111がブロックS211およびS212を実行するように構成された第1の判定サブモジュール11111および第2の判定サブモジュール11112を含むということである。すなわち、第1の判定サブモジュール1111は、等露出画像のヒストグラムに応じて、等露出画像内の露出過大画素数が第1の所定数以上であるかどうかを判定するように構成される。露出過大画素の画素値は、所定の画素値以上である。第1の判定サブモジュール11112は、露出過大画素数が第1の所定数以上であることに応じて、等露出画像が露出過大部分を有すると判定するように構成される。 With reference to FIG. 39, the sixth embodiment of the image processing method can be implemented by the sixth embodiment of the image processing apparatus 111 of the present disclosure. The image processing device 111 according to the sixth embodiment of the image processing device 111 of the present disclosure has substantially the same configuration as the fifth embodiment of the image processing device 111, but the difference between them is the sixth embodiment. The identification module 1111 of the image processing apparatus 111 of the above includes a first determination submodule 11111 and a second determination submodule 11112 configured to execute blocks S211 and S212. That is, the first determination submodule 1111 is configured to determine whether or not the number of overexposed pixels in the equal exposure image is equal to or greater than the first predetermined number according to the histogram of the equal exposure image. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value. The first determination submodule 11112 is configured to determine that the equiexposed image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

図12を参照すると、一般的にいえば、画素値(グレー値)は、等露出画像のヒストグラムの横軸に沿って左から右へと増加し、所定の画素値(グレー値)の画素数は、等露出画像のヒストグラムの縦軸に沿って下から上へと増加する。画素値(グレー値)の範囲は、0から255の間、すなわち黒から白である。ピークが高いほど、所与の画素値(グレー値)の画素数は多くなる。 With reference to FIG. 12, generally speaking, the pixel value (gray value) increases from left to right along the horizontal axis of the histogram of the equi-exposure image, and the number of pixels of a predetermined pixel value (gray value). Increases from bottom to top along the vertical axis of the histogram of the equiexposed image. The range of pixel values (gray values) is between 0 and 255, that is, from black to white. The higher the peak, the larger the number of pixels with a given pixel value (gray value).

第1の所定数は、ヒストグラムの右境界に近い画素数、すなわち露出過大画素数であるべきである。第1の所定数は、総画素数の3分の1に設定することができるが、これは例示に過ぎず、本開示は、これに限定されるものではない。 The first predetermined number should be the number of pixels near the right boundary of the histogram, that is, the number of overexposed pixels. The first predetermined number can be set to one-third of the total number of pixels, but this is merely an example, and the present disclosure is not limited thereto.

図40を参照すると、本開示の制御方法の第6の実施形態は、制御方法の第5の実施形態と略同一であるが、等露出画像が露出過大部分を有するかどうかの識別は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 40, the sixth embodiment of the control method of the present disclosure is substantially identical to the fifth embodiment of the control method, but the identification of whether the equiexposed image has an overexposed portion is further described. , Including the following actions in the block.

ブロックS211において、等露出画像内の露出過大画素数が第1の所定数以上であるかどうかが等露出画像のヒストグラムに応じて判定される。露出過大画素の画素値は、所定の画素値以上である。 In block S211 it is determined according to the histogram of the equal exposure image whether or not the number of overexposed pixels in the equal exposure image is equal to or more than the first predetermined number. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value.

ブロックS212において、露出過大画素数が第1の所定数以上であることに応じて、等露出画像が露出過大部分を有すると判定される。 In block S212, it is determined that the equally exposed image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

図41を参照すると、制御方法の第6の実施形態は、本開示の制御装置11の第6の実施形態によって実施することができる。本開示の制御装置11の第6の実施形態にかかる制御装置11は、制御装置11の第5の実施形態と略同一の構造を有するが、それらの差異は、第6の実施形態の制御装置11の識別モジュール1111がブロックS211およびS212を実行するように構成された第1の判定サブモジュール11111および第2の判定サブモジュール11112を含むということである。すなわち、第1の判定サブモジュール1111は、等露出画像のヒストグラムに応じて、等露出画像内の露出過大画素数が第1の所定数以上であるかどうかを判定するように構成される。露出過大画素の画素値は、所定の画素値以上である。第1の判定サブモジュール11112は、露出過大画素数が第1の所定数以上であることに応じて、等露出画像が露出過大部分を有すると判定するように構成される。 With reference to FIG. 41, the sixth embodiment of the control method can be implemented by the sixth embodiment of the control device 11 of the present disclosure. The control device 11 according to the sixth embodiment of the control device 11 of the present disclosure has substantially the same structure as the fifth embodiment of the control device 11, but the difference between them is the control device of the sixth embodiment. The identification module 1111 of 11 includes a first determination submodule 11111 and a second determination submodule 11112 configured to execute blocks S211 and S212. That is, the first determination submodule 1111 is configured to determine whether or not the number of overexposed pixels in the equal exposure image is equal to or greater than the first predetermined number according to the histogram of the equal exposure image. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value. The first determination submodule 11112 is configured to determine that the equiexposed image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

図12を参照すると、一般的にいえば、画素値(グレー値)は、等露出画像のヒストグラムの横軸に沿って左から右へと増加し、所定の画素値(グレー値)の画素数は、等露出画像のヒストグラムの縦軸に沿って下から上へと増加する。画素値(グレー値)の範囲は、0から255の間、すなわち黒から白である。ピークが高いほど、所与の画素値(グレー値)の画素数は多くなる。 With reference to FIG. 12, generally speaking, the pixel value (gray value) increases from left to right along the horizontal axis of the histogram of the equi-exposure image, and the number of pixels of a predetermined pixel value (gray value). Increases from bottom to top along the vertical axis of the histogram of the equiexposed image. The range of pixel values (gray values) is between 0 and 255, that is, from black to white. The higher the peak, the larger the number of pixels with a given pixel value (gray value).

第1の所定数は、ヒストグラムの右境界に近い画素数、すなわち露出過大画素数であるべきである。第1の所定数は、総画素数の3分の1に設定することができるが、これは例示に過ぎず、本開示は、これに限定されるものではない。 The first predetermined number should be the number of pixels near the right boundary of the histogram, that is, the number of overexposed pixels. The first predetermined number can be set to one-third of the total number of pixels, but this is merely an example, and the present disclosure is not limited thereto.

図42を参照すると、本開示の撮像装置10の第6の実施形態は、制御装置11の第6の実施形態にかかる制御装置11と、制御装置11に電気的に接続されたカメラレンズ12とを含む。換言すれば、本実施形態の撮像装置10は、画像処理装置111の第5の実施形態にかかる画像処理装置111と、制御モジュール112と、カメラレンズ12とを含む。制御モジュール112、カメラレンズ12、および画像処理装置111は、全て互いに電気的に接続されている。 With reference to FIG. 42, a sixth embodiment of the imaging device 10 of the present disclosure includes a control device 11 according to a sixth embodiment of the control device 11, and a camera lens 12 electrically connected to the control device 11. including. In other words, the image pickup apparatus 10 of the present embodiment includes the image processing apparatus 111 according to the fifth embodiment of the image processing apparatus 111, the control module 112, and the camera lens 12. The control module 112, the camera lens 12, and the image processing device 111 are all electrically connected to each other.

図43を参照すると、本開示の電子機器100の第6の実施形態は、撮像装置10の第6の実施形態にかかる撮像装置10を含む。電子機器100は、携帯電話、タブレット、ノートブックコンピュータ、スマートウォッチ、スマートリング、スマートヘルメット、スマートメガネ、他のVR(仮想現実)ウェアラブル機器、他のAR(拡張現実)ウェアラブル機器など、撮影機能を有する任意の種類の端末によって実行することができる。本実施形態では、撮像装置10の台数が1台の場合、撮像装置10は、前面カメラまたは背面カメラとすることができる。撮像装置10の台数が2台の場合、2台の撮像装置10は、それぞれ、前面カメラおよび背面カメラとすることができるか、あるいは、2台の撮像装置10の双方とも、前面カメラであるか、あるいは、2台の撮像装置10の双方とも、背面カメラである。撮像装置10の台数が2台よりも多い場合、撮像装置10は、前面カメラおよび背面カメラを除く、トップカメラ、ボトムカメラ、ラテラルカメラなど、任意の位置に配置されたカメラとすることができる。 Referring to FIG. 43, the sixth embodiment of the electronic device 100 of the present disclosure includes the image pickup device 10 according to the sixth embodiment of the image pickup device 10. The electronic device 100 has a shooting function such as a mobile phone, a tablet, a notebook computer, a smart watch, a smart ring, a smart helmet, a smart glasses, another VR (virtual reality) wearable device, and another AR (augmented reality) wearable device. It can be performed by any kind of terminal that has. In the present embodiment, when the number of image pickup devices 10 is one, the image pickup device 10 can be a front camera or a rear camera. When the number of image pickup devices 10 is two, can the two image pickup devices 10 be a front camera and a rear camera, respectively, or are both of the two image pickup devices 10 a front camera? Or, both of the two image pickup devices 10 are rear cameras. When the number of image pickup devices 10 is larger than two, the image pickup device 10 can be a camera arranged at an arbitrary position such as a top camera, a bottom camera, and a lateral camera, excluding the front camera and the rear camera.

本開示の第6の実施形態にかかる画像処理方法、画像処理装置111、制御方法、制御装置11、撮像装置10、および電子機器100では、2つの画像が撮影され、一方は等露出画像であり、他方は露出過小画像であり、2つの画像は、双方ともぼけており、そして、ぼけた露出過大部分の輝度が増加され、対応する偽の露出過大部分が抽出され、ぼけた等露出画像のぼけた露出過大部分が偽の露出過大部分に置換され、実際のフレア効果を有するぼけた画像にマージする。フレア効果が優れている。 In the image processing method, image processing device 111, control method, control device 11, image pickup device 10, and electronic device 100 according to the sixth embodiment of the present disclosure, two images are taken, one of which is an equal exposure image. , The other is an underexposed image, the two images are both blurred, and the brightness of the blurred overexposed portion is increased, the corresponding fake overexposed portion is extracted, and the blurred etc. The overexposed portion is replaced with a false overexposed portion and merged into a blurred image with the actual flare effect. Excellent flare effect.

図44を参照すると、本開示の画像処理方法の第7の実施形態は、画像処理方法の第5の実施形態と略同一であるが、等露出画像が露出過大部分を有するかどうかの識別は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 44, the seventh embodiment of the image processing method of the present disclosure is substantially the same as the fifth embodiment of the image processing method, but the identification of whether or not the equiexposed image has an overexposed portion can be determined. In addition, the block includes the following actions.

ブロックS211において、等露出画像内の露出過大画素数が第1の所定数以上であるかどうかが等露出画像のヒストグラムに応じて判定される。露出過大画素の画素値は、所定の画素値以上である。 In block S211 it is determined according to the histogram of the equal exposure image whether or not the number of overexposed pixels in the equal exposure image is equal to or more than the first predetermined number. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value.

ブロックS212において、露出過大画素数が第1の所定数以上であることに応じて、等露出画像が露出過大部分を有すると判定される。 In block S212, it is determined that the equally exposed image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

ブロックS213において、隣接した露出過大画素数が第2の所定数以上であるかどうかを判定することにより、等露出画像内に隣接した露出過大画素があるかどうかが判定される。 In block S213, it is determined whether or not there are adjacent overexposed pixels in the equal exposure image by determining whether or not the number of adjacent overexposed pixels is equal to or greater than the second predetermined number.

ブロックS214において、等露出画像内に隣接した露出過大画素があると判定したことに応じて、隣接した露出過大画素が露出過大部分に属すると判定される。 In block S214, it is determined that the adjacent overexposed pixels belong to the overexposed portion according to the determination that there are adjacent overexposed pixels in the equal exposure image.

図45を参照すると、画像処理方法の第7の実施形態は、本開示の画像処理装置111の第7の実施形態によって実施することができる。本開示の画像処理装置111の第7の実施形態にかかる画像処理装置111は、画像処理装置111の第5の実施形態と略同一の構成を有するが、それらの差異は、第7の実施形態の画像処理装置111の識別モジュール1111が、ブロックS211、S212、S213、およびS214を実行するように構成された第1の判断サブモジュール11111、第1の判定サブモジュール11112、第2の判断サブモジュール11113、および第2の判定サブモジュール11114を含むということである。すなわち、第1の判定サブモジュール1111は、等露出画像のヒストグラムに応じて、等露出画像内の露出過大画素数が第1の所定数以上であるかどうかを判定するように構成される。露出過大画素の画素値は、所定の画素値以上である。第1の判定サブモジュール11112は、露出過大画素数が第1の所定数以上であることに応じて、等露出画像が露出過大部分を有すると判定するように構成される。第2の判断サブモジュール11113は、隣接した露出過大画素数が第2の所定数以上であるかどうかを判定することにより、等露出画像内に隣接した露出過大画素があるかどうかを判定するように構成される。第2の判定サブモジュール11114は、等露出画像内に隣接した露出過大画素があると判定することに応じて、隣接した露出過大画素が露出過大部分に属すると判定するように構成される。 With reference to FIG. 45, the seventh embodiment of the image processing method can be implemented by the seventh embodiment of the image processing apparatus 111 of the present disclosure. The image processing device 111 according to the seventh embodiment of the image processing device 111 of the present disclosure has substantially the same configuration as the fifth embodiment of the image processing device 111, but the difference between them is the seventh embodiment. First determination submodule 1111, first determination submodule 11112, second determination submodule configured such that the identification module 1111 of the image processing apparatus 111 of the image processing apparatus 111 executes the blocks S211, S212, S213, and S214. It includes 11113 and a second determination submodule 11114. That is, the first determination submodule 1111 is configured to determine whether or not the number of overexposed pixels in the equal exposure image is equal to or greater than the first predetermined number according to the histogram of the equal exposure image. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value. The first determination submodule 11112 is configured to determine that the equiexposed image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number. The second determination submodule 11113 determines whether or not there are adjacent overexposed pixels in the equal exposure image by determining whether or not the number of adjacent overexposed pixels is equal to or greater than the second predetermined number. It is composed of. The second determination submodule 11114 is configured to determine that the adjacent overexposed pixels belong to the overexposed portion in response to determining that there are adjacent overexposed pixels in the equal exposure image.

第1の所定数は、ノイズポイントを含むことがあるため、または等露出画像でさえも複数の隣接した露出過大画素を含むことがあるため、第2の所定数は、第1の所定数よりも小さくすべきであり、例えば、ともに露出過大部分に寄与する発散光線を有する複数の光源が存在する。 The second predetermined number is greater than the first predetermined number because the first predetermined number may include noise points, or even an equiexposed image may contain a plurality of adjacent overexposed pixels. Should also be small, for example, there are multiple light sources that both have divergent rays that contribute to the overexposed portion.

図12を参照すると、一般的にいえば、画素値(グレー値)は、等露出画像のヒストグラムの横軸に沿って左から右へと増加し、所定の画素値(グレー値)の画素数は、等露出画像のヒストグラムの縦軸に沿って下から上へと増加する。画素値(グレー値)の範囲は、0から255の間、すなわち黒から白である。ピークが高いほど、所与の画素値(グレー値)の画素数は多くなる。 With reference to FIG. 12, generally speaking, the pixel value (gray value) increases from left to right along the horizontal axis of the histogram of the equi-exposure image, and the number of pixels of a predetermined pixel value (gray value). Increases from bottom to top along the vertical axis of the histogram of the equiexposed image. The range of pixel values (gray values) is between 0 and 255, that is, from black to white. The higher the peak, the larger the number of pixels with a given pixel value (gray value).

第1の所定数および第2の所定数は、ヒストグラムの右境界に近い画素数、すなわち露出過大画素数であるべきである。第1の所定数は、総画素数の3分の1に設定することができ、第2の所定数は、総画素数の4分の1に設定することができるが、これは例示に過ぎず、本開示は、これに限定されるものではない。 The first predetermined number and the second predetermined number should be the number of pixels near the right boundary of the histogram, that is, the number of overexposed pixels. The first predetermined number can be set to one-third of the total number of pixels, and the second predetermined number can be set to one-fourth of the total number of pixels, but this is only an example. However, the present disclosure is not limited to this.

図46を参照すると、本開示の制御方法の第7の実施形態は、制御方法の第5の実施形態と略同一であるが、等露出画像が露出過大部分を有するかどうかの識別は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 46, the seventh embodiment of the control method of the present disclosure is substantially identical to the fifth embodiment of the control method, but the identification of whether the equiexposed image has an overexposed portion is further described. , Including the following actions in the block.

ブロックS211において、等露出画像内の露出過大画素数が第1の所定数以上であるかどうかが等露出画像のヒストグラムに応じて判定される。露出過大画素の画素値は、所定の画素値以上である。 In block S211 it is determined according to the histogram of the equal exposure image whether or not the number of overexposed pixels in the equal exposure image is equal to or more than the first predetermined number. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value.

ブロックS212において、露出過大画素数が第1の所定数以上であることに応じて、等露出画像が露出過大部分を有すると判定される。 In block S212, it is determined that the equally exposed image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number.

ブロックS213において、隣接した露出過大画素数が第2の所定数以上であるかどうかを判定することにより、等露出画像内に隣接した露出過大画素があるかどうかが判定される。 In block S213, it is determined whether or not there are adjacent overexposed pixels in the equal exposure image by determining whether or not the number of adjacent overexposed pixels is equal to or greater than the second predetermined number.

ブロックS214において、等露出画像内に隣接した露出過大画素があると判定したことに応じて、隣接した露出過大画素が露出過大部分に属すると判定される。 In block S214, it is determined that the adjacent overexposed pixels belong to the overexposed portion according to the determination that there are adjacent overexposed pixels in the equal exposure image.

図47を参照すると、制御方法の第7の実施形態は、本開示の制御装置11の第7の実施形態によって実施することができる。本開示の制御装置11の第7の実施形態にかかる制御装置11は、制御装置11の第5の実施形態と略同一の構造を有するが、それらの差異は、第7の実施形態の制御装置11の識別モジュール1111が、ブロックS211、S212、S213、およびS214を実行するように構成された第1の判断サブモジュール11111、第1の判定サブモジュール11112、第2の判断サブモジュール11113、および第2の判定サブモジュール11114を含むということである。すなわち、第1の判定サブモジュール1111は、等露出画像のヒストグラムに応じて、等露出画像内の露出過大画素数が第1の所定数以上であるかどうかを判定するように構成される。露出過大画素の画素値は、所定の画素値以上である。第1の判定サブモジュール11112は、露出過大画素数が第1の所定数以上であることに応じて、等露出画像が露出過大部分を有すると判定するように構成される。第2の判断サブモジュール11113は、隣接した露出過大画素数が第2の所定数以上であるかどうかを判定することにより、等露出画像内に隣接した露出過大画素があるかどうかを判定するように構成される。第2の判定サブモジュール11114は、等露出画像内に隣接した露出過大画素があると判定することに応じて、隣接した露出過大画素が露出過大部分に属すると判定するように構成される。 With reference to FIG. 47, the seventh embodiment of the control method can be implemented by the seventh embodiment of the control device 11 of the present disclosure. The control device 11 according to the seventh embodiment of the control device 11 of the present disclosure has substantially the same structure as the fifth embodiment of the control device 11, but the difference between them is the control device of the seventh embodiment. A first determination submodule 11111, a first determination submodule 11112, a second determination submodule 11113, and a second determination module 1111 configured to perform blocks S211, S212, S213, and S214 by the identification module 1111 of 11. It means that the determination submodule 11114 of 2 is included. That is, the first determination submodule 1111 is configured to determine whether or not the number of overexposed pixels in the equal exposure image is equal to or greater than the first predetermined number according to the histogram of the equal exposure image. The pixel value of the overexposed pixel is equal to or greater than a predetermined pixel value. The first determination submodule 11112 is configured to determine that the equiexposed image has an overexposed portion according to the number of overexposed pixels being equal to or greater than the first predetermined number. The second determination submodule 11113 determines whether or not there are adjacent overexposed pixels in the equal exposure image by determining whether or not the number of adjacent overexposed pixels is equal to or greater than the second predetermined number. It is composed of. The second determination submodule 11114 is configured to determine that the adjacent overexposed pixels belong to the overexposed portion in response to determining that there are adjacent overexposed pixels in the equal exposure image.

第1の所定数は、ノイズポイントを含むことがあるため、または等露出画像でさえも複数の隣接した露出過大画素を含むことがあるため、第2の所定数は、第1の所定数よりも小さくすべきであり、例えば、ともに露出過大部分に寄与する発散光線を有する複数の光源が存在する。 The second predetermined number is greater than the first predetermined number because the first predetermined number may include noise points, or even an equiexposed image may contain a plurality of adjacent overexposed pixels. Should also be small, for example, there are multiple light sources that both have divergent rays that contribute to the overexposed portion.

図12を参照すると、一般的にいえば、画素値(グレー値)は、等露出画像のヒストグラムの横軸に沿って左から右へと増加し、所定の画素値(グレー値)の画素数は、等露出画像のヒストグラムの縦軸に沿って下から上へと増加する。画素値(グレー値)の範囲は、0から255の間、すなわち黒から白である。ピークが高いほど、所与の画素値(グレー値)の画素数は多くなる。 With reference to FIG. 12, generally speaking, the pixel value (gray value) increases from left to right along the horizontal axis of the histogram of the equi-exposure image, and the number of pixels of a predetermined pixel value (gray value). Increases from bottom to top along the vertical axis of the histogram of the equiexposed image. The range of pixel values (gray values) is between 0 and 255, that is, from black to white. The higher the peak, the larger the number of pixels with a given pixel value (gray value).

第1の所定数および第2の所定数は、ヒストグラムの右境界に近い画素数、すなわち露出過大画素数であるべきである。第1の所定数は、総画素数の3分の1に設定することができ、第2の所定数は、総画素数の4分の1に設定することができるが、これは例示に過ぎず、本開示は、これに限定されるものではない。 The first predetermined number and the second predetermined number should be the number of pixels near the right boundary of the histogram, that is, the number of overexposed pixels. The first predetermined number can be set to one-third of the total number of pixels, and the second predetermined number can be set to one-fourth of the total number of pixels, but this is only an example. However, the present disclosure is not limited to this.

図48を参照すると、本開示の撮像装置10の第7の実施形態は、制御装置11の第7の実施形態にかかる制御装置11と、制御装置11に電気的に接続されたカメラレンズ12とを含む。換言すれば、本実施形態の撮像装置10は、画像処理装置111の第7の実施形態にかかる画像処理装置111と、制御モジュール112と、カメラレンズ12とを含む。制御モジュール112、カメラレンズ12、および画像処理装置111は、全て互いに電気的に接続されている。 Referring to FIG. 48, a seventh embodiment of the imaging device 10 of the present disclosure includes a control device 11 according to a seventh embodiment of the control device 11 and a camera lens 12 electrically connected to the control device 11. including. In other words, the image pickup apparatus 10 of the present embodiment includes the image processing apparatus 111 according to the seventh embodiment of the image processing apparatus 111, the control module 112, and the camera lens 12. The control module 112, the camera lens 12, and the image processing device 111 are all electrically connected to each other.

図49を参照すると、本開示の電子機器100の第7の実施形態は、撮像装置10の第7の実施形態にかかる撮像装置10を含む。電子機器100は、携帯電話、タブレット、ノートブックコンピュータ、スマートウォッチ、スマートリング、スマートヘルメット、スマートメガネ、他のVR(仮想現実)ウェアラブル機器、他のAR(拡張現実)ウェアラブル機器など、撮影機能を有する任意の種類の端末によって実行することができる。本実施形態では、撮像装置10の台数が1台の場合、撮像装置10は、前面カメラまたは背面カメラとすることができる。撮像装置10の台数が2台の場合、2台の撮像装置10は、それぞれ、前面カメラおよび背面カメラとすることができるか、あるいは、2台の撮像装置10の双方とも、前面カメラであるか、あるいは、2台の撮像装置10の双方とも、背面カメラである。撮像装置10の台数が2台よりも多い場合、撮像装置10は、前面カメラおよび背面カメラを除く、トップカメラ、ボトムカメラ、ラテラルカメラなど、任意の位置に配置されたカメラとすることができる。 Referring to FIG. 49, the seventh embodiment of the electronic device 100 of the present disclosure includes the imaging device 10 according to the seventh embodiment of the imaging device 10. The electronic device 100 has a shooting function such as a mobile phone, a tablet, a notebook computer, a smart watch, a smart ring, a smart helmet, a smart glasses, another VR (virtual reality) wearable device, and another AR (augmented reality) wearable device. It can be performed by any kind of terminal that has. In the present embodiment, when the number of image pickup devices 10 is one, the image pickup device 10 can be a front camera or a rear camera. When the number of image pickup devices 10 is two, can the two image pickup devices 10 be a front camera and a rear camera, respectively, or are both of the two image pickup devices 10 a front camera? Or, both of the two image pickup devices 10 are rear cameras. When the number of image pickup devices 10 is larger than two, the image pickup device 10 can be a camera arranged at an arbitrary position such as a top camera, a bottom camera, and a lateral camera, excluding the front camera and the rear camera.

本開示の第7の実施形態にかかる画像処理方法、画像処理装置111、制御方法、制御装置11、撮像装置10、および電子機器100では、2つの画像が撮影され、一方は等露出画像であり、他方は露出過小画像であり、2つの画像は、双方ともぼけており、そして、ぼけた露出過大部分の輝度が増加され、対応する偽の露出過大部分が抽出され、ぼけた等露出画像のぼけた露出過大部分が偽の露出過大部分に置換され、実際のフレア効果を有するぼけた画像にマージする。フレア効果が優れている。 In the image processing method, image processing device 111, control method, control device 11, image pickup device 10, and electronic device 100 according to the seventh embodiment of the present disclosure, two images are taken, one of which is an equal exposure image. , The other is an underexposed image, the two images are both blurred, and the brightness of the blurred overexposed portion is increased, the corresponding fake overexposed portion is extracted, and the blurred etc. The overexposed portion is replaced with a false overexposed portion and merged into a blurred image with the actual flare effect. Excellent flare effect.

図50を参照すると、本開示の画像処理方法の第8の実施形態は、画像処理方法の第5の実施形態と略同一であるが、画像処理方法の第8の実施形態は、さらに、ブロックにおいて以下の動作を含む。 Referring to FIG. 50, the eighth embodiment of the image processing method of the present disclosure is substantially the same as the fifth embodiment of the image processing method, but the eighth embodiment of the image processing method further blocks. Including the following operations.

ブロックS27において、等露出画像が露出過大部分を有するとの識別に応じてマージ画像が出力される。 In block S27, a merged image is output in response to the identification that the equiexposed image has an overexposed portion.

ブロックS28において、等露出画像が露出過大部分を有しないとの識別に応じてぼけた等露出画像が出力される。 In block S28, a blurred iso-exposed image is output according to the identification that the equi-exposed image does not have an overexposed portion.

図51を参照すると、画像処理方法の第8の実施形態は、本開示の画像処理装置111の第8の実施形態によって実施することができる。本開示の画像処理装置111の第8の実施形態にかかる画像処理装置111は、画像処理装置111の第5の実施形態と略同一の構成を有するが、それらの差異は、第8の実施形態にかかる画像処理装置111がブロックS27およびS28を実行するように構成された第1の出力モジュール1117および第2の出力モジュール1118をさらに含むということである。すなわち、第1の出力モジュール1117は、等露出画像が露出過大部分を有するとの識別に応じてマージ画像を出力するように構成される。第2の出力モジュール1118は、等露出画像が露出過大部分を有しないとの識別に応じてぼけた等露出画像を出力するように構成される。 With reference to FIG. 51, an eighth embodiment of the image processing method can be implemented by the eighth embodiment of the image processing apparatus 111 of the present disclosure. The image processing device 111 according to the eighth embodiment of the image processing device 111 of the present disclosure has substantially the same configuration as the fifth embodiment of the image processing device 111, but the difference between them is the eighth embodiment. The image processing apparatus 111 according to the above further includes a first output module 1117 and a second output module 1118 configured to execute blocks S27 and S28. That is, the first output module 1117 is configured to output the merged image according to the identification that the equiexposed image has an overexposed portion. The second output module 1118 is configured to output a blurred equiexposed image in response to the identification that the equiexposed image does not have an overexposed portion.

図52を参照すると、本開示の制御方法の第8の実施形態は、制御方法の第5の実施形態と略同一であるが、制御方法の第8の実施形態は、さらに、ブロックにおいて以下の動作を含む。 With reference to FIG. 52, the eighth embodiment of the control method of the present disclosure is substantially the same as the fifth embodiment of the control method, but the eighth embodiment of the control method is further described in blocks below. Including operation.

ブロックS27において、等露出画像が露出過大部分を有するとの識別に応じてマージ画像が出力される。 In block S27, a merged image is output in response to the identification that the equiexposed image has an overexposed portion.

ブロックS28において、等露出画像が露出過大部分を有しないとの識別に応じてぼけた等露出画像が出力される。 In block S28, a blurred iso-exposed image is output according to the identification that the equi-exposed image does not have an overexposed portion.

図53を参照すると、制御方法の第8の実施形態は、本開示の制御装置11の第8の実施形態によって実施することができる。本開示の制御装置11の第8の実施形態にかかる制御装置11は、制御装置11の第5の実施形態と略同一の構造を有するが、それらの差異は、第8の実施形態の制御装置11がブロックS7およびS8を実行するように構成された第1の出力モジュール1117および第2の出力モジュール1118をさらに含むということである。すなわち、第1の出力モジュール1117は、等露出画像が露出過大部分を有するとの識別に応じてマージ画像を出力するように構成される。第2の出力モジュール1118は、等露出画像が露出過大部分を有しないとの識別に応じてぼけた等露出画像を出力するように構成される。 With reference to FIG. 53, an eighth embodiment of the control method can be implemented by the eighth embodiment of the control device 11 of the present disclosure. The control device 11 according to the eighth embodiment of the control device 11 of the present disclosure has substantially the same structure as the fifth embodiment of the control device 11, but the difference between them is the control device of the eighth embodiment. 11 further includes a first output module 1117 and a second output module 1118 configured to execute blocks S7 and S8. That is, the first output module 1117 is configured to output the merged image according to the identification that the equiexposed image has an overexposed portion. The second output module 1118 is configured to output a blurred equiexposed image in response to the identification that the equiexposed image does not have an overexposed portion.

図54を参照すると、本開示の撮像装置10の第8の実施形態は、制御装置11の第8の実施形態にかかる制御装置11と、制御装置11に電気的に接続されたカメラレンズ12とを含む。換言すれば、本実施形態の撮像装置10は、画像処理装置111の第8の実施形態にかかる画像処理装置111と、制御モジュール112と、カメラレンズ12とを含む。制御モジュール112、カメラレンズ12、および画像処理装置111は、全て互いに電気的に接続されている。 Referring to FIG. 54, an eighth embodiment of the imaging device 10 of the present disclosure includes a control device 11 according to an eighth embodiment of the control device 11 and a camera lens 12 electrically connected to the control device 11. including. In other words, the image pickup apparatus 10 of the present embodiment includes the image processing apparatus 111 according to the eighth embodiment of the image processing apparatus 111, the control module 112, and the camera lens 12. The control module 112, the camera lens 12, and the image processing device 111 are all electrically connected to each other.

図55を参照すると、本開示の電子機器100の第8の実施形態は、撮像装置10の第8の実施形態にかかる撮像装置10を含む。電子機器100は、携帯電話、タブレット、ノートブックコンピュータ、スマートウォッチ、スマートリング、スマートヘルメット、スマートメガネ、他のVR(仮想現実)ウェアラブル機器、他のAR(拡張現実)ウェアラブル機器など、撮影機能を有する任意の種類の端末によって実行することができる。本実施形態では、撮像装置10の台数が1台の場合、撮像装置10は、前面カメラまたは背面カメラとすることができる。撮像装置10の台数が2台の場合、2台の撮像装置10は、それぞれ、前面カメラおよび背面カメラとすることができるか、あるいは、2台の撮像装置10の双方とも、前面カメラであるか、あるいは、2台の撮像装置10の双方とも、背面カメラである。撮像装置10の台数が2台よりも多い場合、撮像装置10は、前面カメラおよび背面カメラを除く、トップカメラ、ボトムカメラ、ラテラルカメラなど、任意の位置に配置されたカメラとすることができる。 Referring to FIG. 55, an eighth embodiment of the electronic device 100 of the present disclosure includes an imaging device 10 according to an eighth embodiment of the imaging device 10. The electronic device 100 has a shooting function such as a mobile phone, a tablet, a notebook computer, a smart watch, a smart ring, a smart helmet, a smart glasses, another VR (virtual reality) wearable device, and another AR (augmented reality) wearable device. It can be performed by any kind of terminal that has. In the present embodiment, when the number of image pickup devices 10 is one, the image pickup device 10 can be a front camera or a rear camera. When the number of image pickup devices 10 is two, can the two image pickup devices 10 be a front camera and a rear camera, respectively, or are both of the two image pickup devices 10 a front camera? Or, both of the two image pickup devices 10 are rear cameras. When the number of image pickup devices 10 is larger than two, the image pickup device 10 can be a camera arranged at an arbitrary position such as a top camera, a bottom camera, and a lateral camera, excluding the front camera and the rear camera.

本開示の第8の実施形態にかかる画像処理方法、画像処理装置111、制御方法、制御装置11、撮像装置10、および電子機器100では、2つの画像が撮影され、一方は等露出画像であり、他方は露出過小画像であり、2つの画像は、双方ともぼけており、そして、ぼけた露出過大部分の輝度が増加され、対応する偽の露出過大部分が抽出され、ぼけた等露出画像のぼけた露出過大部分が偽の露出過大部分に置換され、実際のフレア効果を有するぼけた画像にマージする。フレア効果が優れている。 In the image processing method, image processing device 111, control method, control device 11, image pickup device 10, and electronic device 100 according to the eighth embodiment of the present disclosure, two images are taken, one of which is an equal exposure image. , The other is an underexposed image, the two images are both blurred, and the brightness of the blurred overexposed portion is increased, the corresponding fake overexposed portion is extracted, and the blurred etc. The overexposed portion is replaced with a false overexposed portion and merged into a blurred image with the actual flare effect. Excellent flare effect.

ブロックS27およびS28はまた、画像処理方法の第6の実施形態および制御方法の第6の実施形態にも適用可能であることが理解することができる。対応して、第1の出力モジュール1117および第2の出力モジュール1118はまた、画像処理装置の第6の実施形態、制御装置の第6の実施形態、画像処理装置の第6の実施形態、および電子機器の第6の実施形態にも適用可能である。ブロックS27およびS28はまた、画像処理方法の第7の実施形態および制御方法の第7の実施形態にも適用可能である。対応して、第1の出力モジュール1117および第2の出力モジュール1118はまた、画像処理装置の第7の実施形態、制御装置の第7の実施形態、画像処理装置の第7の実施形態、および電子機器の第7の実施形態にも適用可能である。 It can be understood that the blocks S27 and S28 are also applicable to the sixth embodiment of the image processing method and the sixth embodiment of the control method. Correspondingly, the first output module 1117 and the second output module 1118 also include a sixth embodiment of the image processing apparatus, a sixth embodiment of the control apparatus, a sixth embodiment of the image processing apparatus, and It is also applicable to the sixth embodiment of the electronic device. Blocks S27 and S28 are also applicable to the seventh embodiment of the image processing method and the seventh embodiment of the control method. Correspondingly, the first output module 1117 and the second output module 1118 also include a seventh embodiment of the image processing apparatus, a seventh embodiment of the control apparatus, a seventh embodiment of the image processing apparatus, and It is also applicable to the seventh embodiment of the electronic device.

図56を参照して、上述した第5から第8の実施形態にかかる制御方法において、制御方法を使用して制御される撮像装置がカメラレンズを含む場合、撮像装置を制御して同一シーンの等露出画像および露出過小画像を出力すること(ブロックS26)は、ブロックにおいて以下の動作を含むことができる。 With reference to FIG. 56, in the control method according to the fifth to eighth embodiments described above, when the image pickup device controlled by using the control method includes a camera lens, the image pickup device is controlled to control the same scene. Outputting an equally exposed image and an underexposed image (block S26) can include the following operations in the block.

ブロックS261において、第1の露出値が明環境に基づいて判定される。 In block S261, the first exposure value is determined based on the bright environment.

ブロックS262において、第2の露出値が露出過大部分に基づいて判定される。 In block S262, the second exposure value is determined based on the overexposed portion.

ブロックS263において、カメラレンズが制御され、第1の露出値および第2の露出値を使用して順次露出を行い、等露出画像および露出過小画像を取得する。 In block S263, the camera lens is controlled to sequentially perform exposure using the first exposure value and the second exposure value, and acquire an equal exposure image and an underexposed image.

対応して、図57を参照すると、第5から第8の実施形態にかかる制御装置11の制御モジュール112は、ブロックS261、S262、およびS263を実行するように構成された第1の露出判定ユニット1131、第2の露出判定ユニット1132、および第1の制御ユニット1133を含む。すなわち、第1の露出判定ユニット1131は、明環境に基づいて第1の露出量を判定するように構成される。第2の露出判定ユニット1132は、露出過大部分に基づいて第2の露出値を判定するように構成される。第1の制御ユニット1133は、カメラレンズを制御して、第1の露出値および第2の露出値を使用して順次露出を行い、等露出画像および露出過小画像を取得するように構成される。 Correspondingly, referring to FIG. 57, the control module 112 of the control device 11 according to the fifth to eighth embodiments is a first exposure determination unit configured to execute blocks S261, S262, and S263. It includes 1131, a second exposure determination unit 1132, and a first control unit 1133. That is, the first exposure determination unit 1131 is configured to determine the first exposure amount based on the bright environment. The second exposure determination unit 1132 is configured to determine the second exposure value based on the overexposed portion. The first control unit 1133 is configured to control the camera lens to sequentially perform exposure using the first exposure value and the second exposure value to acquire an equal exposure image and an underexposed image. ..

対応して、第5から第8の実施形態にかかる撮像装置10および電子機器100の制御モジュール112もまた、第1の露出判定ユニット1131、第2の露出判定ユニット1132、および第1の制御ユニット1133を含むことができ、その構造および機能は、上記と同一であり、ここでは詳述しない。 Correspondingly, the control module 112 of the image pickup apparatus 10 and the electronic device 100 according to the fifth to eighth embodiments also also has the first exposure determination unit 1131, the second exposure determination unit 1132, and the first control unit. 1133 can be included, the structure and function of which is identical to the above and is not detailed here.

図58を参照して、上述した第5から第8の実施形態にかかる制御方法において、制御方法を使用して制御される撮像装置が第1のカメラレンズおよび第2のカメラレンズを含む場合、撮像装置を制御して同一シーンの等露出画像および露出過小画像を出力すること(ブロックS26)は、ブロックにおいて以下の動作を含むことができる。 With reference to FIG. 58, in the control method according to the fifth to eighth embodiments described above, when the image pickup apparatus controlled by using the control method includes a first camera lens and a second camera lens. Controlling the image pickup device to output an equally exposed image and an underexposed image of the same scene (block S26) can include the following operations in the block.

ブロックS261において、第1の露出値が明環境に基づいて判定される。 In block S261, the first exposure value is determined based on the bright environment.

ブロックS262において、第2の露出値が露出過大部分に基づいて判定される。 In block S262, the second exposure value is determined based on the overexposed portion.

ブロックS264において、第1のカメラレンズおよび第2のカメラレンズは、それぞれ、第1の露出値および第2の露出値を使用して露出を行うように制御され、等露出画像および露出過小画像を取得する。 In block S264, the first camera lens and the second camera lens are controlled to perform exposure using the first exposure value and the second exposure value, respectively, to produce an equal exposure image and an underexposure image. get.

対応して、図59を参照すると、第5から第8の実施形態にかかる制御装置11の制御モジュール112は、ブロックS261、S262、およびS264を実行するように構成された第1の露出判定ユニット1131、第2の露出判定ユニット1132、および第2の制御ユニット1134を含む。すなわち、第1の露出判定ユニット1131は、明環境に基づいて第1の露出量を判定するように構成される。第2の露出判定ユニット1132は、露出過大部分に基づいて第2の露出値を判定するように構成される。第2の制御ユニット1134は、第1のカメラレンズおよび第2のカメラレンズをそれぞれ制御して、第1の露出値および第2の露出値を使用して露出を行い、等露出画像および露出過小画像を取得するように構成される。 Correspondingly, with reference to FIG. 59, the control module 112 of the control device 11 according to the fifth to eighth embodiments is a first exposure determination unit configured to execute blocks S261, S262, and S264. It includes 1131, a second exposure determination unit 1132, and a second control unit 1134. That is, the first exposure determination unit 1131 is configured to determine the first exposure amount based on the bright environment. The second exposure determination unit 1132 is configured to determine the second exposure value based on the overexposed portion. The second control unit 1134 controls the first camera lens and the second camera lens, respectively, to perform exposure using the first exposure value and the second exposure value, and equal-exposure image and underexposure. It is configured to acquire an image.

対応して、第5から第8の実施形態にかかる撮像装置10および電子機器100の制御モジュール112もまた、第1の露出判定ユニット1131、第2の露出判定ユニット1132、および第2の制御ユニット1134を含むことができ、その構造および機能は、上記と同一であり、ここでは詳述しない。 Correspondingly, the control module 112 of the image pickup apparatus 10 and the electronic device 100 according to the fifth to eighth embodiments also also has the first exposure determination unit 1131, the second exposure determination unit 1132, and the second control unit. 1134 can be included, the structure and function of which is identical to the above and is not detailed here.

本開示のいくつかの実施形態は、電子機器を提供する。電子機器は、ハウジング、プロセッサ、記憶装置、回路基板、および電源回路を含む。回路基板は、ハウジングによって画定された空間内に配置されている。プロセッサおよび記憶装置は、回路基板上に配置されている。電源回路は、電子機器の各回路または装置に電力を供給するように構成される。記憶装置は、実行可能プログラムコードを記憶するように構成される。プロセッサは、記憶装置に記憶された実行可能プログラムコードを読み出すことにより、実行可能プログラムコードに対応するプログラムを実行し、前述した実施形態のいずれかの画像処理方法または前述した実施形態のいずれかの制御方法を実行する。電子機器は、携帯電話、タブレット、ノートブックコンピュータ、スマートウォッチ、スマートリング、スマートヘルメット、およびスマートグラスのいずれかによって実施することができる。 Some embodiments of the present disclosure provide electronic devices. Electronic devices include housings, processors, storage devices, circuit boards, and power circuits. The circuit board is arranged in the space defined by the housing. The processor and storage device are located on the circuit board. The power supply circuit is configured to supply power to each circuit or device of the electronic device. The storage device is configured to store the executable program code. The processor executes the program corresponding to the executable program code by reading the executable program code stored in the storage device, and either the image processing method according to any of the above-described embodiments or the above-described embodiment. Execute the control method. Electronic devices can be implemented by any of mobile phones, tablets, notebook computers, smart watches, smart rings, smart helmets, and smart glasses.

本開示の実施形態はまた、命令を記憶したコンピュータ可読記憶媒体を提供する。電子機器のプロセッサによって命令が実行されると、電子機器は、前述した実施形態のいずれかの画像処理方法または前述した実施形態のいずれかの制御方法を実行する。 The embodiments of the present disclosure also provide a computer-readable storage medium that stores instructions. When the instruction is executed by the processor of the electronic device, the electronic device executes the image processing method of any of the above-described embodiments or the control method of any of the above-described embodiments.

本明細書を通して、「実施形態(an embodiment)」、「いくつかの実施形態(some embodiments)」、「一実施形態(one embodiment)」、「他の例(another example)」、「例(an example)」、「特定の例(a specific example)」、または「いくつかの例(some examples)」という言及は、実施形態または例に関連して説明された特定の特徴、構造、材料、または特性が本開示の少なくとも1つの実施形態または例に含まれることを意味する。したがって、本明細書を通して様々な場所における「いくつかの実施形態では(in some embodiments)」、「一実施形態では(in one embodiment)」、「実施形態では(in an embodiment)」、「他の例では(in another example)」、「例では(in an example)」、「特定の例では(in a specific example)」、または「いくつかの例では(in some examples)」などのフレーズの出現は、必ずしも本開示の同じ実施形態または例を指していない。さらにまた、特定の特徴、構造、材料、または特性は、1つ以上の実施形態または例において任意の適切な方法で組み合わせることができる。 Throughout the present specification, "an embodiment", "some embodiments", "one embodied", "another ingredient", "an example", "an embodiment", "an embodiment", "an embodiment", "an embodiment" References such as "exemple", "a specific example", or "some samples" are specific features, structures, materials, or specific features, structures, materials, or described in connection with an embodiment or example. It is meant that the property is included in at least one embodiment or example of the present disclosure. Thus, throughout the specification, "in some embodiments", "in one embodied", "in an embodied", "others" in various places throughout the specification. Appearance of phrases such as "in an embodied cognitive" in an example, "in an embodied cognitive in an example", "in an embodied cognitive in a specific example", or "in some embodied cognitive in some examples" Does not necessarily refer to the same embodiment or example of the present disclosure. Furthermore, specific features, structures, materials, or properties can be combined in any suitable way in one or more embodiments or examples.

フローチャートに記載されたまたは他の方法で本明細書に記載された任意のプロセスまたは方法は、プロセスにおける特定の論理機能またはステップを達成するための実行可能命令の1つ以上のモジュール、セグメントまたはコードの一部を含むように理解することができ、本開示の好ましい実施形態の範囲は、必ずしもここに示されて説明された順序におけるものではなく、おそらく関係する機能のほぼ同じまたは逆の順序を含む他の実装を含み、それは当業者によって理解されるべきである。 Any process or method described herein or otherwise described herein is one or more modules, segments or codes of executable instructions to achieve a particular logical function or step in the process. It can be understood to include a portion of, and the scope of preferred embodiments of the present disclosure is not necessarily in the order shown and described herein, but perhaps in much the same or reverse order of the functions involved. It includes other implementations, including, which should be understood by those skilled in the art.

例えば、論理機能を実現するための実行可能命令の特定のシーケンステーブルなど、本明細書において他の方法で説明されるかまたはフローチャートに示される論理および/またはステップは、命令実行システム、装置もしくは機器(コンピュータベースのシステム、プロセッサを含むシステム、もしくは命令実行システム、装置および機器から命令を取得してその命令を実行することができる他のシステムなど)によって使用されることになる、またはその命令実行システム、装置および機器と組み合わせて使用されることになる任意のコンピュータ可読媒体において具体的に達成することができる。本明細書に関して、「コンピュータ可読媒体」は、命令実行システム、装置または機器によってまたはそれらと組み合わせて使用されることになるプログラムを含むため、記憶するため、通信するため、伝播するためまたは転送するために適応する任意の装置とすることができる。コンピュータ可読媒体のより具体的な例は、それらに限定されるものではないが、1つ以上のワイヤを有する電子接続(電子機器)、携帯用コンピュータエンクロージャ(磁気デバイス)、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ装置および携帯用コンパクトディスク読み出し専用メモリ(CDROM)を含む。さらに、コンピュータ可読媒体は、さらに、プログラムを印刷することができる紙または他の適切な媒体とすることができる。これは、例えば、プログラムを電気的に取得する必要がある場合に、紙または他の適切な媒体が光学的にスキャンされてから編集、復号または他の適切な方法で処理され、そのプログラムがコンピュータメモリに記憶することができるためである。 The logic and / or steps described otherwise or shown in the flowcharts herein, such as a particular sequence table of executable instructions to implement a logical function, are instruction execution systems, devices or equipment. Will be used by (such as computer-based systems, systems that include processors, or instruction execution systems, other systems that can take instructions from devices and equipment and execute the instructions), or execute the instructions. It can be specifically achieved in any computer readable medium that will be used in combination with systems, devices and equipment. As used herein, a "computer-readable medium" includes, stores, communicates, propagates, or transfers programs that will be used by or in combination with an instruction execution system, device or device. It can be any device adapted for. More specific examples of computer-readable media are, but are not limited to, electronic connections (electronic devices) with one or more wires, portable computer enclosures (magnetic devices), random access memory (RAM). Includes read-only memory (ROM), erasable programmable read-only memory (EPROM or flash memory), fiber optic devices and portable compact disk read-only memory (CDROM). In addition, the computer-readable medium can further be paper or other suitable medium on which the program can be printed. This is done, for example, when the program needs to be obtained electrically, paper or other suitable medium is optically scanned and then edited, decoded or otherwise processed, and the program is computerized. This is because it can be stored in the memory.

本開示の各部分は、ハードウェア、ソフトウェア、ファームウェアまたはそれらの組み合わせによって実現することができると理解されるべきである。上記の実施形態において、複数のステップまたは方法は、メモリに記憶され且つ適切な命令実行システムによって実行されるソフトウェアまたはファームウェアによって実現されてもよい。例えば、他の実施形態と同様にハードウェアによって実現される場合、ステップまたは方法は、当該技術分野において知られている以下の技術のうちの1つまたは組み合わせによって実現することができる:データ信号の論理機能を実現する論理ゲート回路を有する離散論理回路、適切な組み合わせ論理ゲート回路を有する特定用途向け集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)など。 It should be understood that each part of the disclosure can be achieved by hardware, software, firmware or a combination thereof. In the above embodiments, the plurality of steps or methods may be implemented by software or firmware stored in memory and executed by an appropriate instruction execution system. For example, if implemented by hardware as in other embodiments, the steps or methods can be implemented by one or a combination of the following techniques known in the art: Discrete logic circuits with logic gate circuits that realize logic functions, application-specific integrated circuits with appropriate combination logic gate circuits, programmable gate arrays (PGA), field programmable gate arrays (FPGA), etc.

当業者は、本開示の上記の例示的な方法におけるステップの全部または一部が、プログラムによって関連するハードウェアに命令することによって達成することができることを理解するであろう。プログラムは、コンピュータ可読記憶媒体に記憶することができ、プログラムは、コンピュータ上で実行されたときに本開示の方法の実施形態におけるステップのうちの1つまたは組み合わせを含む。 Those skilled in the art will appreciate that all or part of the steps in the above exemplary method of the present disclosure can be accomplished by programmatically instructing the relevant hardware. The program can be stored on a computer-readable storage medium, and the program comprises one or a combination of steps in embodiments of the methods of the present disclosure when executed on a computer.

さらに、本開示の実施形態の各機能セルは、処理モジュールに統合されてもよく、またはこれらのセルは、別々の物理的存在であってもよく、または2つ以上のセルが処理モジュールに統合されてもよい。統合モジュールは、ハードウェアの形態またはソフトウェア機能モジュールの形態で実現することができる。統合モジュールがソフトウェア機能モジュールの形態で実現され、スタンドアロン製品として販売または使用されるとき、統合モジュールは、コンピュータ可読記憶媒体に記憶されてもよい。 Further, each functional cell of the embodiments of the present disclosure may be integrated into a processing module, or these cells may be separate physical entities, or two or more cells may be integrated into a processing module. May be done. The integrated module can be implemented in the form of hardware or software function modules. When the integrated module is implemented in the form of a software functional module and sold or used as a stand-alone product, the integrated module may be stored on a computer-readable storage medium.

上述した記憶媒体は、読み出し専用メモリ、磁気ディスク、またはCDなどとすることができる。例示的な実施形態が示されて説明されたが、上記の実施形態は、本開示を限定するものと解釈されることはできず、本開示の範囲から逸脱することなく、実施形態において変形、代替、および変更が行われることができることが当業者によって理解されるであろう。 The storage medium described above can be a read-only memory, a magnetic disk, a CD, or the like. Although exemplary embodiments have been shown and described, the above embodiments cannot be construed as limiting the present disclosure and are modified in the embodiments without departing from the scope of the present disclosure. It will be appreciated by those skilled in the art that alternatives and changes can be made.

Claims (8)

画像処理方法であって、
(a)第1の写真撮影パラメータに対応する第1の画像を取得するステップと、
(b)第2の写真撮影パラメータに対応する、前記第1の画像と同一シーンを有する第2の画像を取得するステップと、
(c)前記第1の画像をぼかし、ぼけた第1の画像を取得するステップと、
(d)前記第1の画像の露出過大部分に対応する、前記ぼけた第1の画像の置換対象部分を定義するステップと、
(e)前記置換対象部分に対応する、前記第2の画像の置換部分を取得するステップと、
(f)前記ぼけた第1の画像の前記置換対象部分を前記第2の画像の前記置換部分と置換してマージ画像を取得するステップと
を含み、
前記第1の画像が合焦画像を含み、前記第2の画像が非合焦画像を含み、前記ステップ(a)から(f)が、
前記合焦画像が合焦状態で前記露出過大部分を有するかどうかを識別するステップと、
前記合焦画像をぼかし、前記露出過大部分に対応するぼけた露出過大部分を含むぼけた合焦画像を取得するステップと、
前記合焦画像が前記露出過大部分を有することに応じて、前記合焦画像と同一シーンを有する非合焦画像を取得し、前記非合焦画像を処理して前記合焦画像の前記露出過大部分に対応する素材部分を取得するステップと、
前記ぼけた合焦画像内の前記露出過大部分に対応する前記ぼけた露出過大部分を前記素材部分と置換して前記マージ画像を取得するステップと
によって実行されることを特徴とする画像処理方法。
It is an image processing method
(A) A step of acquiring a first image corresponding to the first photography parameter, and
(B) A step of acquiring a second image having the same scene as the first image corresponding to the second photography parameter.
(C) A step of blurring the first image and acquiring a blurred first image, and
(D) A step of defining a replacement target portion of the blurred first image corresponding to the overexposed portion of the first image, and
(E) A step of acquiring a replacement portion of the second image corresponding to the replacement target portion, and
(F) viewed including the steps of obtaining a first merged image the substituted and replacement parts of the replaced portion of the second image of the images the blur,
The first image includes an in-focus image, the second image includes an out-of-focus image, and steps (a) to (f) are described.
A step of identifying whether the focused image has the overexposed portion in the focused state, and
A step of blurring the in-focus image and acquiring a blurred in-focus image including the overexposed portion corresponding to the overexposed portion.
In response to the overexposed image having the overexposed portion, an out-of-focus image having the same scene as the in-focus image is acquired, and the out-of-focus image is processed to process the overexposure of the in-focus image. Steps to get the material part corresponding to the part,
With the step of acquiring the merged image by replacing the overexposed portion corresponding to the overexposed portion in the blurred in-focus image with the material portion.
An image processing method characterized by being performed by .
前記合焦画像が前記合焦状態で前記露出過大部分を有するかどうかを識別することが、
前記合焦画像のヒストグラムに応じて、前記合焦画像内の露出過大画素数が第1の所定数以上であるかどうかを判定することであって、前記露出過大画素の画素値が所定の画素値以上であることと、
前記露出過大画素数が前記第1の所定数以上であることに応じて、前記合焦画像が前記露出過大部分を有すると判定することと
を含むことを特徴とする請求項に記載の画像処理方法。
Identifying whether the focused image has the overexposed portion in the focused state can be identified.
It is to determine whether or not the number of overexposed pixels in the in-focus image is equal to or greater than the first predetermined number according to the histogram of the overexposed image, and the pixel value of the overexposed pixels is a predetermined pixel. Being above the value and
In response to the number of exposures excessive pixels is the first predetermined number or more, the image of claim 1, wherein the focused image is characterized in that it comprises a determining and having the exposed excessive portions Processing method.
前記合焦画像が前記合焦状態で前記露出過大部分を有するかどうかを識別することが、
隣接した露出過大画素数が第2の所定数以上であるかどうかを判定することにより、前記合焦画像内に隣接した露出過大画素があるかどうかを判定することと、
前記合焦画像内に前記隣接した露出過大画素があると判定したことに応じて、前記隣接した露出過大画素が前記露出過大部分に属すると判定することと
をさらに含むことを特徴とする請求項に記載の画像処理方法。
Identifying whether the focused image has the overexposed portion in the focused state can be identified.
By determining whether or not the number of adjacent overexposed pixels is equal to or greater than the second predetermined number, it is determined whether or not there are adjacent overexposed pixels in the in-focus image.
A claim further comprising determining that the adjacent overexposed pixels belong to the overexposed portion in response to the determination that there are the adjacent overexposed pixels in the focused image. the image processing method according to 2.
前記合焦画像をぼかして前記ぼけた合焦画像を取得することが、ガウスぼかしアルゴリズムによって実施されることを特徴とする請求項からのいずれか一項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 3 , wherein blurring the focused image to obtain the blurred focused image is performed by a Gauss blur algorithm. 前記素材部分のぼかし度合いが、前記露出過大部分のぼかし度合いと略同一であることを特徴とする請求項からのいずれか一項に記載の画像処理方法。 The image processing method according to any one of claims 1 to 4 , wherein the degree of blurring of the material portion is substantially the same as the degree of blurring of the overexposed portion. 前記方法が、
前記合焦画像が前記露出過大部分を有することを識別するのに応じて前記マージ画像を出力することと、
前記合焦画像が前記露出過大部分を有しないことを識別するのに応じて前記ぼけた合焦画像を出力することと
をさらに含むことを特徴とする請求項からのいずれか一項に記載の画像処理方法。
The above method
To output the merged image in response to identifying that the focused image has the overexposed portion.
The aspect of any one of claims 1 to 5 , further comprising outputting the blurred in-focus image in response to identifying that the in-focus image does not have the overexposed portion. The image processing method described.
画像処理装置であって、
プロセッサと、
前記プロセッサに接続されたメモリであって、方法を実行するように構成された前記プロセッサによって実行可能な複数のプログラム命令を含むメモリとを備え、前記方法が、
(a)第1の写真撮影パラメータに対応する第1の画像を取得するステップと、
(b)第2の写真撮影パラメータに対応する、前記第1の画像と同一シーンを有する第2の画像を取得するステップと、
(c)前記第1の画像をぼかし、ぼけた第1の画像を取得するステップと、
(d)前記第1の画像の露出過大部分に対応する、前記ぼけた第1の画像の置換対象部分を定義するステップと、
(e)前記置換対象部分に対応する、前記第2の画像の置換部分を取得するステップと、
(f)前記ぼけた第1の画像の前記置換対象部分を前記第2の画像の前記置換部分と置換してマージ画像を取得するステップと
を含み、
前記第1の画像が合焦画像を含み、前記第2の画像が非合焦画像を含み、前記ステップ(a)から(f)が、
前記合焦画像が合焦状態で前記露出過大部分を有するかどうかを識別するステップと、
前記合焦画像をぼかし、前記露出過大部分に対応するぼけた露出過大部分を含むぼけた合焦画像を取得するステップと、
前記合焦画像が前記露出過大部分を有することに応じて、前記合焦画像と同一シーンを有する非合焦画像を取得し、前記非合焦画像を処理して前記合焦画像の前記露出過大部分に対応する素材部分を取得するステップと、
前記ぼけた合焦画像内の前記露出過大部分に対応する前記ぼけた露出過大部分を前記素材部分と置換して前記マージ画像を取得するステップと
によって実行される画像処理装置。
It is an image processing device
With the processor
A memory connected to the processor, comprising a memory containing a plurality of program instructions that can be executed by the processor configured to execute the method.
(A) A step of acquiring a first image corresponding to the first photography parameter, and
(B) A step of acquiring a second image having the same scene as the first image corresponding to the second photography parameter.
(C) A step of blurring the first image and acquiring a blurred first image, and
(D) A step of defining a replacement target portion of the blurred first image corresponding to the overexposed portion of the first image, and
(E) A step of acquiring a replacement portion of the second image corresponding to the replacement target portion, and
(F) viewed including the steps of obtaining a first merged image the substituted and replacement parts of the replaced portion of the second image of the images the blur,
The first image includes an in-focus image, the second image includes an out-of-focus image, and steps (a) to (f) are described.
A step of identifying whether the focused image has the overexposed portion in the focused state, and
A step of blurring the in-focus image and acquiring a blurred in-focus image including the overexposed portion corresponding to the overexposed portion.
As the in-focus image has the overexposed portion, an out-of-focus image having the same scene as the in-focus image is acquired, and the out-of-focus image is processed to process the overexposure of the in-focus image. Steps to get the material part corresponding to the part,
With the step of acquiring the merged image by replacing the overexposed portion corresponding to the overexposed portion in the blurred in-focus image with the material portion.
Image processing device performed by .
電子機器がプロセッサを使用して命令を実行したとき、請求項1に記載の画像処理方法が実行されることを特徴とする命令を記憶した非一時的コンピュータ可読記憶媒体。 A non-temporary computer-readable storage medium that stores an instruction, wherein the image processing method according to claim 1 is executed when an electronic device executes an instruction using a processor.
JP2019533587A 2016-12-20 2017-12-19 Image processing methods and equipment, as well as non-temporary computer-readable storage media Active JP6803473B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
CNPCT/CN2016/111149 2016-12-20
CNPCT/CN2016/111147 2016-12-20
PCT/CN2016/111149 WO2018112764A1 (en) 2016-12-20 2016-12-20 Image processing method and apparatus, control method and apparatus, imaging apparatus, and electronic apparatus
PCT/CN2016/111147 WO2018112763A1 (en) 2016-12-20 2016-12-20 Image processing method and device, control method and device, and imaging device and electronic device
PCT/CN2017/117289 WO2018113685A1 (en) 2016-12-20 2017-12-19 Image processing method and device, and non-transitory computer-readable storage medium

Publications (2)

Publication Number Publication Date
JP2020502689A JP2020502689A (en) 2020-01-23
JP6803473B2 true JP6803473B2 (en) 2020-12-23

Family

ID=60674007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019533587A Active JP6803473B2 (en) 2016-12-20 2017-12-19 Image processing methods and equipment, as well as non-temporary computer-readable storage media

Country Status (9)

Country Link
US (1) US10692199B2 (en)
EP (1) EP3340608B1 (en)
JP (1) JP6803473B2 (en)
KR (1) KR102171625B1 (en)
AU (1) AU2017379019B2 (en)
ES (1) ES2761593T3 (en)
TW (1) TWI626620B (en)
WO (1) WO2018113685A1 (en)
ZA (1) ZA201904191B (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145130B (en) * 2019-12-06 2023-05-30 Oppo广东移动通信有限公司 Image processing method and device and storage medium
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469071B2 (en) 2006-02-14 2008-12-23 Fotonation Vision Limited Image blurring
JP4791331B2 (en) * 2006-11-15 2011-10-12 富士フイルム株式会社 Imaging apparatus and exposure control method
US7729602B2 (en) * 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
US7859588B2 (en) * 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
JP4306752B2 (en) 2007-03-19 2009-08-05 ソニー株式会社 Imaging device, photometry method, luminance calculation method, program
US20080231726A1 (en) * 2007-03-23 2008-09-25 Motorola, Inc. Apparatus and method for image color correction in a portable device
CN101399924B (en) * 2007-09-25 2010-05-19 展讯通信(上海)有限公司 Automatic exposure method and device based on brightness histogram
JP4416825B2 (en) * 2008-07-02 2010-02-17 シャープ株式会社 Image inspection processing apparatus, image inspection processing method, program, and recording medium
US8229244B2 (en) * 2009-03-30 2012-07-24 Mitsubishi Electric Research Laboratories, Inc. Multi-image deblurring
US8553106B2 (en) * 2009-05-04 2013-10-08 Digitaloptics Corporation Dual lens digital zoom
JP5545596B2 (en) * 2010-07-21 2014-07-09 コニカミノルタ株式会社 Image input device
WO2012110894A1 (en) * 2011-02-18 2012-08-23 DigitalOptics Corporation Europe Limited Dynamic range extension by combining differently exposed hand-held device-acquired images
JP5787648B2 (en) 2011-07-11 2015-09-30 キヤノン株式会社 Image processing apparatus and image processing apparatus control method
TW201320733A (en) * 2011-11-07 2013-05-16 Altek Corp Image processing method of overexposure image of human face and image capturing device thereof
JP2013157965A (en) * 2012-01-31 2013-08-15 Oki Data Corp Image processing apparatus
JP5409829B2 (en) 2012-02-17 2014-02-05 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
CN102740564B (en) * 2012-06-28 2015-04-22 上海新进半导体制造有限公司 Light emitting diode (LED) driving circuit and control method of LED
CN113472989A (en) * 2012-11-28 2021-10-01 核心光电有限公司 Multi-aperture imaging system and method for acquiring images by multi-aperture imaging system
CN203120316U (en) 2013-01-25 2013-08-07 广东欧珀移动通信有限公司 Mobile phone, tablet computer and lens/electronic equipment casing assembly structure of mobile phone and tablet computer
US9736956B2 (en) 2013-03-12 2017-08-15 Samsung Electronics Co., Ltd. Electronic device having display module
US9615012B2 (en) * 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
JP2015095880A (en) 2013-11-14 2015-05-18 キヤノン株式会社 Image processor and image processing method
EP3079010B1 (en) * 2013-12-06 2018-09-12 Huawei Device (Dongguan) Co., Ltd. Photographing method for dual-camera device and dual-camera device
JP6090820B2 (en) 2014-06-27 2017-03-08 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd High dynamic range video recording method and apparatus based on buyer color filter array
KR102157675B1 (en) * 2014-07-25 2020-09-18 삼성전자주식회사 Image photographing apparatus and methods for photographing image thereof
CN104125384B (en) 2014-08-11 2017-08-04 上海摩软通讯技术有限公司 Camera module and the mobile terminal including it
CN104333708B (en) 2014-11-28 2017-10-20 广东欧珀移动通信有限公司 Photographic method, camera arrangement and terminal
JP6003974B2 (en) * 2014-12-26 2016-10-05 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US9600741B1 (en) * 2015-03-18 2017-03-21 Amazon Technologies, Inc. Enhanced image generation based on multiple images
CN105979165B (en) 2016-06-02 2019-02-05 Oppo广东移动通信有限公司 Blur photograph generation method, device and mobile terminal
CN206135994U (en) 2016-08-31 2017-04-26 广东欧珀移动通信有限公司 Show screen assembly and mobile terminal
CN106210205B (en) 2016-08-31 2019-10-18 Oppo广东移动通信有限公司 Display screen component and mobile terminal

Also Published As

Publication number Publication date
TWI626620B (en) 2018-06-11
EP3340608A1 (en) 2018-06-27
ZA201904191B (en) 2020-12-23
TW201824185A (en) 2018-07-01
WO2018113685A1 (en) 2018-06-28
KR102171625B1 (en) 2020-10-30
AU2017379019A1 (en) 2019-07-11
US20180174285A1 (en) 2018-06-21
ES2761593T3 (en) 2020-05-20
EP3340608B1 (en) 2019-10-30
JP2020502689A (en) 2020-01-23
AU2017379019B2 (en) 2020-08-06
US10692199B2 (en) 2020-06-23
KR20190089035A (en) 2019-07-29

Similar Documents

Publication Publication Date Title
KR102278776B1 (en) Image processing method, apparatus, and apparatus
JP6911192B2 (en) Image processing methods, equipment and devices
KR101411910B1 (en) Digital photographing apparatus and method for controlling the same
CN107454332B (en) Image processing method and device and electronic equipment
WO2020034924A1 (en) Imaging control method and apparatus, electronic device, and computer readable storage medium
WO2020034735A1 (en) Imaging control method and electronic device
US8854489B2 (en) Image processing method and image processing apparatus
JP5096017B2 (en) Imaging device
US20150086127A1 (en) Method and image capturing device for generating artificially defocused blurred image
US10395348B2 (en) Image pickup apparatus, image processing apparatus, and control method of image pickup apparatus
JP6803473B2 (en) Image processing methods and equipment, as well as non-temporary computer-readable storage media
CN110166705B (en) High dynamic range HDR image generation method and device, electronic equipment and computer readable storage medium
TW201501533A (en) Method for adjusting focus position and electronic apparatus
CN104702824A (en) Image capturing apparatus and control method of image capturing apparatus
CN110177212B (en) Image processing method and device, electronic equipment and computer readable storage medium
CN112085686A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
US8866942B2 (en) Auto focus adjusting device and method and recording medium of the same method
JP2010279054A (en) Image pickup device, image processing device, image pickup method, and image processing method
KR102506363B1 (en) A device with exactly two cameras and how to create two images using the device
CN111212231B (en) Image processing method, image processing device, storage medium and electronic equipment
JP2008199461A (en) Imaging apparatus
WO2018112763A1 (en) Image processing method and device, control method and device, and imaging device and electronic device
CN114762313B (en) Image processing method, device, storage medium and electronic equipment
CN109345603B (en) Image processing method and device, electronic equipment and computer readable storage medium
JP2017009952A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201130

R150 Certificate of patent or registration of utility model

Ref document number: 6803473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250