JP2020528702A - 画像処理方法および装置 - Google Patents

画像処理方法および装置 Download PDF

Info

Publication number
JP2020528702A
JP2020528702A JP2020503756A JP2020503756A JP2020528702A JP 2020528702 A JP2020528702 A JP 2020528702A JP 2020503756 A JP2020503756 A JP 2020503756A JP 2020503756 A JP2020503756 A JP 2020503756A JP 2020528702 A JP2020528702 A JP 2020528702A
Authority
JP
Japan
Prior art keywords
image
images
depth
thread
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020503756A
Other languages
English (en)
Other versions
JP6903816B2 (ja
Inventor
オウヤン、ダン
タン、グオフイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020528702A publication Critical patent/JP2020528702A/ja
Application granted granted Critical
Publication of JP6903816B2 publication Critical patent/JP6903816B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本開示は、画像処理方法および装置を提供する。画像処理方法は、第1のカメラを制御して複数の第1の画像を取り込み、第2のカメラを制御して複数の第2の画像を取り込むことと、複数の第1の画像から第1の基準画像を取得し、複数の第2の画像から第2の基準画像を取得することと、第1のスレッドにより複数の1次画像に対して合成およびノイズ低減処理を実行して合成およびノイズ低減された画像を生成し、合成およびノイズ低減された画像を予め設定された画像処理方策に従って処理して目標画像を生成し、第2のスレッドにより第1の基準画像および第2の基準画像に基づいて被写界深度情報を取得することと、被写界深度情報に従って目標画像の背景領域をぼかすことと、を含む。

Description

関連出願の相互参照
本出願は、2017年11月1日に出願された中国特許出願第201711060087.1号明細書に基づいており、同特許出願の優先権を主張するものであり、その内容全体は参照により本明細書に組み込まれるものとする。
本開示は、画像処理技術に関し、より詳細には、画像処理方法および装置(device)に関する。
端末装置の生産技術の進歩に伴い、端末装置のほとんどが、通常は被写界深度情報(depth of field information)を取得するように構成されたデュアルカメラ(dual cameras)を採用しており、したがって、ユーザの多様化取込み要件(diversification capturing requirements)が被写界深度情報に従って関連する画像処理を実行することによって満たされ得る。
本開示は画像処理方法および装置を提供する。
本開示の諸実施形態は画像処理方法を提供する。画像処理方法は、第1のカメラを制御して複数の第1の画像を取り込み、第2のカメラを制御して複数の第2の画像を取り込むことと、複数の第1の画像から第1の基準画像を取得し、複数の第2の画像から第2の基準画像を取得することであって、第2の基準画像および第1の基準画像が関連付けて取り込まれ、1対の画像を形成することと、第1のスレッドにより複数の第1の画像に対して合成およびノイズ低減処理を実行して合成およびノイズ低減された画像を生成し、合成およびノイズ低減された画像を予め設定された画像処理方策に従って処理して目標画像を生成し、第2のスレッドにより第1の基準画像および第2の基準画像に基づいて被写界深度情報を取得することと、被写界深度情報に従って目標画像の背景領域をぼかすことと、を含む。
一実施形態では、第1のカメラを制御して複数の第1の画像を取り込み、第2のカメラを制御して複数の第2の画像を取り込むことは、撮影環境(capturing environment)の明るさを検出することと、この明るさが所定の閾値未満であることを検出したのに応答して、第1のカメラを制御して複数の第1の画像を取り込み、第2のカメラを制御して複数の第2の画像を取り込むことと、を含む。
一実施形態では、複数の第1の画像から第1の基準画像を取得し、複数の第2の画像から第2の基準画像を取得することは、複数の第1の画像から第1の画像のセットを選択することであって、第1の画像のセットの各第1の画像が所定の鮮明度より大きい鮮明度を有することと、複数の第2の画像から第2の画像のセットを選択することであって、第2の画像のセットの各第2の画像が第1の画像のセットの当該第1の画像とともに1対の画像を形成することと、第1の画像のセットから第1の基準画像を選択し、第2の画像のセットから第2の基準画像を選択することと、を含む。
一実施形態では、第1のスレッドにより複数の第1の画像に対して合成およびノイズ低減処理を実行して合成およびノイズ低減された画像を生成することは、複数の第1の画像内の同じ位置に対応する画素の値を読み出すことと、その値の平均値を計算することと、その平均値を、合成およびノイズ低減された画像内の同じ位置に対応する画素の値として決定することと、を含む。
一実施形態では、被写界深度情報に従って目標画像の背景領域をぼかすことは、前景領域の第1の被写界深度および背景領域の第2の被写界深度を取得することと、第1の被写界深度および第2の被写界深度に応じてぼかし度(blurring degree)を生成することと、ぼかし度に応じて目標画像の背景領域をぼかすことと、を含む。
一実施形態では、前景領域の第1の被写界深度および背景領域の第2の被写界深度を取得することは、取込みパラメータ取込みパラメータを取得することと、式および取込みパラメータに従って前景領域の第1の被写界深度および背景領域の第2の被写界深度を決定することと、を含む。
一実施形態では、前景領域の第1の被写界深度および背景領域の第2の被写界深度を取得することは、第1のカメラおよび第2のカメラによって取得された現在の取込み済み画像のデータに従って焦点領域を越える撮像領域の被写界深度マップを取得することと、被写界深度マップに従って前景領域の第1の被写界深度および背景領域の第2の被写界深度を決定することと、を含む。
一実施形態では、ぼかし度に応じて目標画像の背景領域をぼかすことは、ぼかし度および画素の被写界深度に応じて目標画像の背景領域内の各画素のぼかし係数(blurring coefficient)を取得することと、各画素のぼかし係数に応じて目標画像の背景領域をぼかすことと、を含む。
一実施形態では、方法は、第1のスレッドによって実行される合成およびノイズ低減処理の第1の時間の長さを取得し、第2のスレッドにより被写界深度情報を取得する第2の時間の長さを取得することと、第1の時間の長さと第2の時間の長さとの差に応じて画像処理方策を設定することと、をさらに含む。
一実施形態では、方法は、明るさが所定の閾値以上であることを検出したのに応答して、第1のカメラを制御して第1の画像フレームを取り込み、第2のカメラを制御して第2の画像フレームを取り込むことと、第1のスレッドにより予め設定された画像処理方策に従って第1の画像フレームを処理して目標画像を生成し、第2のスレッドにより第1の画像フレームおよび第2の画像フレームに基づいて被写界深度情報を取得することと、被写界深度情報に従って目標画像の背景領域をぼかすことと、をさらに含む。
一実施形態では、方法は、第2のスレッドにより被写界深度情報を取得する時間の長さを取得することと、第2のスレッドにより被写界深度情報を取得する時間の長さに応じて画像処理方策を設定することと、をさらに含む。
本開示の諸実施形態は、メモリとプロセッサとメモリ上に格納されプロセッサ上で実行可能なコンピュータプログラムとを含むコンピュータ装置をさらに提供する。プロセッサがコンピュータプログラムを実行すると、プロセッサは上述の画像処理方法を実行させられる。
本開示の諸実施形態は画像処理方法をさらに提供する。画像処理方法は、第1のカメラを制御して第1の画像を取り込み、第2のカメラを制御して第2の画像を取り込むことと、第1のスレッドにより予め設定された画像処理方策に従って第1の画像を処理して目標画像を生成し、第2のスレッドにより第1の画像および第2の画像に基づいて被写界深度情報を取得することと、被写界深度情報に従って目標画像の背景領域をぼかすことと、を含む。
一実施形態では、方法は、第2のスレッドにより被写界深度情報を取得する時間の長さを取得することと、第2のスレッドにより被写界深度情報を取得する時間の長さに応じて画像処理方策を設定することと、をさらに含む。
一実施形態では、方法は、撮影環境の明るさを検出することをさらに含む。撮影環境の明るさが所定の閾値未満であることを検出したのに応答して、第1のカメラを制御して第1の画像を取り込み、第2のカメラを制御して第2の画像を取り込むことは、第1のカメラを制御して複数の第1の画像を取り込み、第2のカメラを制御して複数の第2の画像を取り込むことを含む。第1のスレッドにより予め設定された画像処理方策に従って第1の画像を処理して目標画像を生成し、第2のスレッドにより第1の画像および第2の画像に基づいて被写界深度情報を取得することは、複数の第1の画像から第1の基準画像を取得し、複数の第2の画像から第2の基準画像を取得することであって、第2の基準画像および第1の基準画像が関連付けて取り込まれ、1対の画像を形成することと、第1のスレッドにより複数の第1の画像に対して合成およびノイズ低減処理を実行して合成およびノイズ低減された画像を生成し、予め設定された画像処理方策に従って合成およびノイズ低減された画像を処理して目標画像を生成し、第2のスレッドにより第1の基準画像および第2の基準画像に基づいて被写界深度情報を取得することと、を含む。
一実施形態では、方法は、第1のスレッドによって実行される合成およびノイズ低減処理の第1の時間の長さを取得し、第2のスレッドにより被写界深度情報を取得する第2の時間の長さを取得することと、第1の時間の長さと第2の時間の長さとの差に応じて画像処理方策を設定することと、をさらに含む。
本開示の諸実施形態の追加の態様および利点は、以下の説明において部分的に与えられ、以下の説明から部分的に明らかになり、または本開示の諸実施形態の実践から学ぶであろう。
本開示の諸実施形態のこれらおよびその他の態様および利点は、図面を参照してなされる以下の説明から明らかになり、より容易に理解されるであろう。
本開示の一実施形態による画像処理方法のフローチャートである。 本開示の一実施形態による三角測量測定の原理を示す概略図である。 本開示の一実施形態によるデュアルカメラで被写界深度情報を取得するプロセスを示す概略図である。 本開示の別の実施形態による画像処理方法のフローチャートである。 本開示の別の実施形態による画像処理方法のフローチャートである。 本開示の一実施形態による画像処理方法を実施するシナリオを示す概略図である。 本開示の特定の一実施形態による画像処理方法のフローチャートである。 本開示の一実施形態による画像処理装置のブロック図である。 本開示の別の実施形態による画像処理装置のブロック図である。 本開示の別の実施形態による画像処理装置のブロック図である。 本開示の一実施形態による画像処理回路を示す概略図である。
次に、例示的な諸実施形態が詳細に参照され、それらの実施形態の例が添付図面に示されているが、図面全体を通して同じまたは類似の参照番号は、同じまたは類似の要素あるいは同じまたは類似の機能を有する要素を表す。図面を参照して以下に説明する諸実施形態は例示的なものにすぎず、本開示を説明するために使用され、本開示を制限するものとして理解されるべきではない。
従来技術では、被写界深度情報を取得するのに長い時間がかかるので、被写界深度情報に基づく関連画像処理の時間が長く、それにより画像処理効率が低下する。
本開示の諸実施形態による画像処理方法、画像処理装置、および装置について、添付の図面を参照しながら以下に説明する。
本開示の実施形態による画像処理方法の実行対象は、携帯電話、タブレットコンピュータ、携帯情報端末、ウェアラブル装置など、デュアルカメラを有するハードウェア装置であり得る。ウェアラブル装置は、スマートブレスレット、スマートウォッチ、スマートメガネなどであり得る。
図1は、本開示の一実施形態による画像処理方法のフローチャートである。図1に示すように、この方法は以下を含むことができる。
ブロック101で、第1のカメラ(すなわち、本開示の実施形態における1次カメラ)を制御して複数の第1の画像(複数の1次画像とも呼ばれる)を取り込み、同時に第2のカメラ(すなわち、実施形態における2次カメラ)を制御して複数の第2の画像(複数の2次画像とも呼ばれる)を取り込む。
この実施形態では、1次カメラによって取り込まれた1次画像および2次カメラによって取り込まれた2次画像に基づいて、1次画像および2次画像内の同一物体の被写界深度情報が取得される。1次画像は、最終実画像の基本画像として構成される。1次画像および2次画像に基づいて被写界深度情報を取得するときに1次画像と2次画像との有意差のために被写界深度情報を正確に取得することができないという状況、または、1次画像の不鮮明さのために最終実画像の画質が悪いという状況を回避するために、1次カメラを制御して複数の1次画像を取り込み、同時に2次カメラを制御して複数の2次画像を取り込み、したがって、1次画像と2次画像の最適化対は、複数の1次画像および複数の2次画像から選択され、それにより被写界深度情報取得の精度および最終画像の画質を改善することができる。
従来技術では、デュアルカメラは、弱光環境(low light environment)下では画像化効果が不十分であり、強光環境(high light environment)下では十分な光により画像化効果が高い。強光環境では、1次画像および2次画像は高い画像鮮明度を有し、この場合、1次カメラは1つの1次画像を取り込むように制御され、同時に2次カメラは1つの2次画像を取り込むように制御され、被写界深度情報を取得する精度を確保することができ、より良い画像化効果を得ることができる。したがって、処理圧力を解放するために、複数の1次画像および複数の2次画像は弱光環境下でのみ取り込まれる。
一実施形態では、撮影環境の明るさが、例えば端末装置内の光学センサによって検出される。検出された明るさが所定の閾値未満である場合、現在の環境が端末装置の画像化効果に影響を与える可能性があることを示し、したがって、1次カメラは複数の1次画像を取り込むように制御され、同時に2次カメラは複数の2次画像を取り込むように制御される。
所定の閾値は、多くの実験データに従って決定され、周囲の明るさが画像化効果に影響を与えるかどうかを決定するように構成された基準明るさであり得る。所定の閾値は、端末装置の撮像ハードウェアに関連していてもよい。撮像ハードウェアの光感度が高いほど、所定の閾値は低下する。
ブロック102で、第1の基準画像(基準1次画像とも呼ばれる)が複数の1次画像から選択され、関連付けて取り込まれ、基準1次画像とともに1対の画像を形成する第2の基準画像(基準2次画像とも呼ばれる)が複数の2次画像から選択される。基準1次画像および基準2次画像が関連付けて取り込まれることは、基準1次画像および基準2次画像が同時に取り込まれること、または基準1次画像および基準2次画像が所定の取込み方策に従って取り込まれることを意味することができる。例えば、所定の取込み方策は、1次カメラによって取り込まれたn番目の1次画像が基準1次画像として構成され、2次カメラによって取り込まれたn番目の2次画像が基準2次画像として構成されることを意味することができる。
ブロック103で、複数の1次画像に対して合成およびノイズ低減処理が第1のスレッドによって実行されて合成およびノイズ低減された画像を生成し、合成およびノイズ低減された画像は予め設定された画像処理方策に従って処理されて目標1次画像を生成し、同時に、2次スレッドにより基準1次画像および基準2次画像に基づいて被写界深度情報が取得される。
上述のように、デュアルカメラを備えたシステムは、1次画像および2次画像に基づいて被写界深度情報を取得する。デュアルカメラで被写界深度情報を取得するプロセスを明確に説明するために、デュアルカメラで被写界深度情報を取得する原理について添付の図面を参照しながら説明する。
実際には、被写界深度情報は、両眼の視覚の助けを借りて人間の目によって取得され、この原理は、デュアルカメラに適しており、図2に示す三角測量測定の原理によって実現される。図2に示すように、実際の空間に、撮像物体、2つのカメラの位置OおよびO、2つのカメラの焦点面が示されている。焦点面と2つのカメラが配置されている面との間の距離はfである。2つのカメラは焦点面上に画像を形成する。
PおよびP’は、異なる画像内の同一物体の位置を表す。Pと点Pを有する画像の左境界との間の距離はXであり、P’と点P’を有する画像の左境界との間の距離はXである。OおよびOは、同一平面にありかつ互いに距離Bを隔てる2つのカメラを表す。
三角測量測定の原理に基づいて、物体と2つのカメラが配置されている平面との間の距離がZであるので、式
を確立することができる。

を導き出すことができる、ただし、dは、異なる画像内の同一物体の位置相互間の距離差を表す。Bおよびfは一定であるので、Zはdに応じて取得することができる。
三角測量測定に加えて、1次画像の被写界深度情報を取得するために他の手法が使用され得る。例えば、1次カメラおよび2次カメラが同じシナリオに関して画像を取り込む場合、シナリオ内の物体とカメラとの間の距離は変位差、すなわち1次カメラと2次カメラとの間のジェスチャ差に比例する。本開示の一実施形態では、比例関係に従って距離Zが取得され得る。
例えば、図3に示すように、1次画像は1次カメラによって取り込まれ、2次画像は2次カメラによって取り込まれる。1次画像と2次画像との差が計算され、視差画像(disparity image)で表される。視差画像は、2つの異なる画像内の同じ点の間の変位差を示す。変位差は三角測量測定ではZに比例するので、視差画像は被写界深度情報を伝達する画像として使用され得る。
上述したように、デュアルカメラが被写界深度情報を取得する場合、同一物体の位置が異なる画像で取得される必要がある。デュアルカメラが被写界深度情報を取得するにより取り込まれた画像が近接している場合、被写界深度情報を取得する精度および効率は向上させることができる。
本開示の諸実施形態では、1次カメラおよび2次カメラが複数の1次画像および複数の2次画像を同時に取り込むので、1次画像および2次画像は同時に取り込まれる1対の画像に属していて近接しており、したがって、取得された被写界深度情報の精度は、合成およびノイズ低減処理の前に、元の1次画像および2次画像に従って被写界深度情報を取得することにより確保することができる。
上述のように、画像が弱光環境下で取り込まれる場合、複数の1次画像および複数の2次画像のノイズ点は高い。この場合、被写界深度情報を取得する精度をさらに向上させるために、合成およびノイズ低減処理は複数の2次画像に対して実行することができ、被写界深度情報は、合成およびノイズ低減された2次画像および1次画像に従って取得することができる。
一実施形態では、基準1次画像は複数の1次画像から選択され、基準2次画像は複数の2次画像から選択される。実際には、取込みプロセス中に、1次画像および2次画像は、複数の1次画像および複数の2次画像を取得するために同じ頻度で取り込まれる。同時に取り込まれた1次画像および2次画像は1対の画像に属する。例えば、時系列順に従って、1次カメラによって取り込まれた複数の1次画像は、1次画像11、1次画像12、・・・などを含む。2次カメラによって取り込まれた複数の2次画像は、2次画像21、2次画像22、・・・などを含む。1次画像11および2次画像21は1対の画像に属する。1次画像12および2次画像22は1対の画像に属する。被写界深度情報を取得する精度および効率をさらに向上させるために、高鮮明度を有する基準1次画像は複数の1次画像から選択することができる。複数の画像内に多くのフレームがある場合、選択効率を向上させるために、1次画像のいくつかのフレームおよび2次画像のいくつかの対応するフレームが画像鮮明度に応じて選択され得る。基準1次画像および基準2次画像は、最上位の画像鮮明度を有する1次画像および対応する2次画像から選択される。
さらに、被写界深度を取得するのに長い時間がかかるので、第1のスレッドは、複数の1次画像に対して合成およびノイズ低減処理を実行して目標1次画像を生成するために使用され、同時に第2のスレッドは、基準1次画像および基準2次画像に基づいて被写界深度情報を取得するために使用される。一方、被写界深度情報が取得されるときには、合成およびノイズ低減処理は、目標1次画像を取得するために複数の1次画像に対して実行され、したがって、ぼかし処理は、被写界深度情報が取得された後で被写界深度情報および目標1次画像に従って実行することができる。最初に被写界深度情報を取得し、次いで1次画像に対して合成およびノイズ低減処理を実行する方法と比べると、画像処理効率は向上する。他方、合成およびノイズ低減処理が複数の1次画像に対して実行されることにより、目標1次画像は明瞭な細部および高画質を有することが可能になり、したがって、ぼかし処理を施された画像は良好な効果を有する。
マルチフレーム合成およびノイズ低減処理をよりよく理解するために、マルチフレーム構成およびノイズ低減処理が弱光環境下で1次画像に対して実行されることについて説明する。
周囲光が低い場合、端末装置などの撮像装置は通常、光感度を自動的に上げる方法で画像を取り込む。ただし、この方法で光感度を自動的に上げると、画像内にノイズを引き起こす。マルチフレーム合成およびノイズ低減処理は、画像内のノイズ点を低減し、高光感度で取り込まれた画像の画質を向上させることを目的としている。この原理は、ノイズ点が無秩序であるという予備知識に基づいている。複数の画像が連続して取り込まれた後、同じ位置にあるノイズ点は、レッドノイズ点、グリーンノイズ点、ホワイトノイズ点とすることができる、あるいはノイズ点がなくてもよく、したがってスクリーニング条件が以下のように実行され得る。ノイズに属する画素点(すなわちノイズ点)は、同じ位置に対応し、複数の画像内に位置する画素点の値に応じて選別される。画素点の値は、画素点内のいくつかの画素を含む。画素点に含まれる画素が多いほど、画素点の値は高くなり、対応する画像の鮮明さは高くなる。さらに、ノイズ点が排除された後、ノイズ点を除去する効果を実現するために、ノイズ点に対して所定のアルゴリズムに従って色推測および画素置換を実行することができる。プロセス後、画質の低損失でのノイズ低減効果を実現することができる。
単純なマルチフレーム合成およびノイズ低減手法として、複数の画像が取り込まれた後、同じ位置に対応する複数の画像内の画素点の値が読み出され、合成画像内の画素点の値として加重平均値を計算するために平均化される。このようにして、高鮮明度の画像が取得され得る。
さらに、第2のスレッドにより被写界深度情報を取得する時間の長さと第1のスレッドによって実行される合成およびノイズ低減処理の時間の長さとの間には時間差がある。画像処理効率をさらに向上させるために、この時間差を最大限に活用することにより他の画像処理操作を実行することができる。
環境の明るさが比較的高い場合および環境の明るさが比較的低い場合の第1のスレッドおよび第2のスレッドの実施態様について説明する。
撮影環境の明るさが所定の閾値未満である場合、スレッドの実施態様について以下のように説明することができる。
一実施形態では、第1のスレッドにより複数の1次画像に対して合成およびノイズ低減処理を実行して目標1次画像を生成することは、複数の1次画像に対して合成およびノイズ低減処理を実行し、第1のスレッドにより予め設定された画像処理方策に従って合成およびノイズ低減された画像を処理して目標1次画像を生成することを含むことができる。
予め設定された画像処理方策は、フィルタ適用操作や美化操作などを含むことができる。第2のスレッドが長い時間をかけて被写界深度情報を取得するのと同時に、第1のスレッドは合成およびノイズ低減処理以外の画像処理操作を実行することができ、したがって、第1のスレッドにかかる時間と第2のスレッドにかかる時間との時間差は、ぼかし処理が実行される前により多くの画像処理操作を完了するために使用され、それにより画像処理効率をさらに向上させることができる。ぼかし処理が実行される前に、より多くの画像処理操作が合成およびノイズ低減された画像に基づいて実施され、合成およびノイズ低減された画像は高画質を有するので、より多くの画像処理操作は、さらに良い処理効果を達成することができる。
例えば、第2のスレッドが長い時間をかけて被写界深度情報を取得するのと同時に、合成およびノイズ低減処理に加えて、第1のスレッドは、合成およびノイズ低減された画像に対して美化操作を実行して目標1次画像を生成することができる。ぼかし処理が実行されるとき、画像には美化操作を施され、このことは画像処理効率を大幅に向上させる。
実際には、第1のスレッドにかかる時間と第2のスレッドにかかる時間との時間差を最大限に活用するために、第1のスレッドが操作を終了するときと第2のスレッドが操作を終了するときとは互いに近接することができる。さらに、この時間差に応じて、画像処理方策は、第2のスレッドが操作を終了したときに画像処理方策に対応する操作を終了できるようにするように設定され得る。
一実施形態では、図4に示すように、ブロック103の前に、画像処理方法は以下をさらに含むことができる。
ブロック201で、第1のスレッドによって実行される合成およびノイズ低減処理の第1の時間の長さと第2のスレッドにより被写界深度情報を取得する第2の時間の長さとが取得され得る。
第1の時間の長さは、端末装置の処理システムの運転速度と1次画像のいくつかのフレームとに関連している。第1の時間の長さは、相関アルゴリズムを使用して、端末装置の処理システムの運転速度と1次画像フレームの数とに応じて計算することができる。第2の時間の長さは、端末装置の処理システムの運転速度と画像鮮明度とに関連している。第2の時間の長さは、相関アルゴリズムを使用して、端末装置の処理システムの運転速度と基準1次画像および基準2次画像の画像鮮明度とに応じて計算することができる。
ブロック202で、画像処理方策は、第1の時間の長さと第2の時間の長さとの差に応じて設定される。
異なる画像処理操作には異なる時間がかかる。第1の時間の長さと第2の時間の長さとの差を最大限に活用するために、画像処理方策は、第1の時間の長さと第2の時間の長さとの差に応じて、より多くの画像処理操作をその時間差内で終了できるようにするように設定され得る。
例えば、合成およびノイズ低減処理の時間の長さが400msであり、フィルタ適用操作の時間の長さが200msであり、美化操作の時間の長さが200msであり、被写界深度情報を取得する時間の長さが800msであるときに、現在のシナリオが美化操作およびフィルタ適用操作を含む場合、美化操作およびフィルタ適用操作は第1のスレッド内に設定され、したがって、第2のスレッドが被写界深度情報を取得した後、フィルタ適用操作および美化操作は、第1のスレッドによって取得された目標1次画像に対して完了し、それにより画像処理効果は大幅に改善される。
撮影環境の明るさが所定の閾値以上であるとき、スレッドの並列処理メカニズムは以下のように実施される。
本開示の一実施形態では、図5に示すように、ブロック101の後、方法は以下をさらに含むことができる。
ブロック301で、撮影環境の明るさが所定の閾値以上であることを検出したのに応答して、1次カメラを制御して1次画像フレームを取り込み、同時に、2次カメラを制御して2次画像フレームを取り込む。
撮影環境の明るさが所定の閾値以上であるとき、現在の環境は良好な明るさ条件を有しており、デュアルカメラの画質が高いことを示す。画像を取り込み、画像化圧力を解放する効率を向上させるために、1次カメラを制御して1次画像フレームを取り込み、同時に、2次カメラを制御して2次画像フレームを取り込み、したがって1次画像フレームは撮像に使用することができ、1次画像フレームおよび2次画像フレームは被写界深度情報を取得するために使用することができる。
ブロック302で、第1のスレッドにより予め設定された画像処理方策に従って1次画像を処理して目標1次画像を生成し、同時に、第2のスレッドにより1次画像および2次画像に基づいて被写界深度情報を取得する。
ブロック303で、被写界深度情報に従って目標1次画像の背景領域をぼかす。
第1のスレッドにより予め設定された画像処理方策に従って1次画像を処理して目標1次画像を生成し、例えば、1次画像に対してノイズ除去するなどの最適化操作を実行し、同時に、第2のスレッドにより1次画像および2次画像に基づいて被写界深度情報を取得することにより、撮像に使用される目標1次画像は、被写界深度情報を取得するのと同時に取得することができ、目標1次画像の背景領域は、被写界深度情報に従ってぼかすことができる。
一方、被写界深度情報を取得するのと同時に、1次画像を処理して目標1次画像を取得し、したがって、被写界深度情報が取得された後、目標1次画像は被写界深度情報に従って直接ぼかすことができる。最初に被写界深度情報を取得し、次いで1次画像を処理する方法と比べると、画像処理効率は改善される。他方、強光環境下で取り込まれた目標1次画像を処理することによって取得された目標1次画像は明瞭な細部および高画質を有し、したがって、ぼかし処理を施された画像は良好な効果を有する。
この実施形態では、第1のスレッドと第2のスレッドとの間の時間差を最大限に活用するために、第2のスレッドにより被写界深度情報を取得する時間の長さを取得することができ、画像処理方策を時間の長さに応じて設定し、それによって、画像処理方策に対応する美化操作やフィルタ適用操作などの操作を、第2のスレッドによって実行される操作が完了したときに完了できるようにすることができる。
例えば、1次画像を処理して目標1次画像を取得する時間の長さが400msであり、フィルタ適用操作の時間の長さが200msであり、美化操作の時間の長さが200msであり、被写界深度情報を取得する時間の長さが800msであると仮定すると、現在のシナリオが美化操作およびフィルタ適用操作を含む場合、フィルタ適用操作および美化操作は第1のスレッド内に設定され、したがって、第2のスレッドが被写界深度情報を取得した後、第1のスレッドによって取得された目標1次画像に対するフィルタ適用操作および美化操作は完了し、それによって画像処理効果は大幅に改善される。
ブロック104で、目標1次画像の背景領域を被写界深度情報に従ってぼかす。
被写界深度情報に従って目標1次画像の背景領域をぼかす方法は、以下の方法を含めて多くあるが、これらの方法に限定されるものではない。
可能な実施態様として、前景領域の第1の被写界深度情報および背景領域の第2の被写界深度情報は、被写界深度情報および焦点領域に従って取得され、ぼかし度は、第1の被写界深度情報および第2の被写界深度情報に従って生成され、目標1次画像の背景領域は、ぼかし度に応じてぼかされ、したがって、様々な度合いのぼかしは種々の被写界深度情報に従って実行され、それによって、ぼやけた画像をより自然なものにするとともに層状化効果を高めることができる。
カメラが取り込まれた物体に焦点を合わされた後、物体が存在する焦点の前から後ろまでの空間深度範囲は被写界深度と呼ばれ、人間の目に利用可能な高鮮明度画像が空間深度範囲内に形成される。焦点領域の前方の撮像範囲は前景領域の第1の被写界深度であり、焦点領域の後方の高鮮明度画像を形成する領域は背景領域の第2の被写界深度である。
前景領域の第1の被写界深度情報および背景領域の第2の被写界深度情報を決定する様々な方法が、様々なアプリケーションシナリオに使用され得る。
方法1
取込みのための関連パラメータを取得することができ、前景領域の第1の被写界深度情報および背景領域の第2の被写界深度情報をカメラ用の式に従って決定することができる。
この実施形態では、1次カメラの許容錯乱円の直径、F数、焦点距離、合焦距離などのパラメータを取得することができ、第1の被写界深度は、式:第1の被写界深度=(F数*許容錯乱円の直径*合焦距離の2乗)/(焦点距離の2乗+F数*許容錯乱円の直径*合焦距離)に従って計算することができ、前景は第1の被写界深度情報に従って区別され、第2の被写界深度は、式:第2の被写界深度=(F数*許容錯乱円の直径*合焦距離の2乗)/(焦点距離の2乗−F数*許容錯乱円の直径*合焦距離)に従って計算することができる。
方法2
焦点領域を越える撮像領域の被写界深度マップは、デュアルカメラによって取得された現在の取り込まれた画像のデータに従って決定され、焦点領域の前方の前景領域の第1の被写界深度および焦点領域の後方の第2の被写界深度は被写界深度マップに従って決定され得る。
この実施形態では、2つのカメラが異なる位置にあるので、取り込まれるべき目標物体に関して2つの後方カメラ間に一定の角度差および一定の距離差があり、したがって、2つのカメラによって取得されるプレビュー画像は一定の位相差を有する。
例えば、取り込まれるべき目標物体上の点Aの場合、1次カメラのプレビュー画像内の点Aに対応する画素点の座標は(30,50)とすることができ、2次カメラのプレビュー画像内の点Aに対応する画素点の座標は(30,48)とすることができる。2つのプレビュー画像内の点Aに対応する画素点間の位相差は、50−48=2である。
この実施形態では、被写界深度情報と位相差との関係は、実験データまたはカメラパラメータに従って事前に確立することができ、したがって、被写界深度情報は、2つのカメラによって取得されたプレビュー画像内の当該点に対応する画素点間の位相差に応じて検索することができる。このようにして、第1の被写界深度情報および第2の被写界深度情報を容易に取得することができる。
ぼかし度に応じて目標1次画像の背景領域をぼかすために様々な方法が使用され得る。
例1
各画素のぼかし係数が、目標1次画像の背景領域内の画素のぼかし度および被写界深度情報に従って取得される。ぼかし係数はぼかし度に関連している。ぼかし係数が大きいほど、ぼかし度は高くなる。例えば、目標1次画像の背景領域内の各画素のぼかし度と被写界深度との積を計算して、画素のぼかし係数を取得する。目標1次画像の背景領域は、各画素のぼかし係数に応じてぼかされる。
例2
第2の被写界深度と焦点領域内の被写界深度との差が大きいほど、対応する背景領域は焦点領域から離れて遠くなり、対応する背景領域と焦点領域との相関が小さくなり、対応するぼかし度は大きくなる。この実施形態では、第2の被写界深度と焦点領域の被写界深度との差とぼかし度との間の関係が事前に保存される。この関係では、第2の被写界深度と焦点領域の被写界深度との差が大きいほど、対応するぼかし度は大きくなる。目標1次画像の背景領域の第2の被写界深度と焦点領域の被写界深度との差が取得され、対応するぼかし度は、その差に応じて上記の関係について照会することによって取得され、対応する被写界深度の背景領域はぼかし度に応じてぼかされる。
本開示の実施形態による画像処理方法の実施態様について、アプリケーションシナリオと併せて十分に説明する。
第1のシナリオ
図6に示すように、取込み命令を取得した後、1次カメラおよび2次カメラを制御して、4つの1次画像フレームおよび4つの2次画像フレームを同時に取り込む。取込みシーケンスに従って、4つの1次画像フレームには、11、12、13および14の番号が付けられている。4つの2次画像フレームには、21、22、23および24の番号が付けられている。
基準1次画像12は複数の1次画像から選択され、基準1次画像とともに1対の画像を形成するために取り込まれる2次1次22は複数の2次画像から選択される。合成およびノイズ低減処理は複数の1次画像に対して実行され、美化操作は、目標1次画像を取得するために第1のスレッドにより合成およびノイズ低減された画像に対して実行され、同時に、被写界深度情報は、第2のスレッドにより基準1次画像12および基準2次画像22に従って取得される。1次画像に対して実行される合成およびノイズ低減処理の時間の長さが400msであり、美化操作の時間の長さが400msであり、被写界深度情報を取得する時間の長さが400msである場合、従来技術では、被写界深度情報の取得と1次画像の合成およびノイズ除去とが順番に実行され、したがって処理時間の長さは1600msである。しかしながら、本開示によって提供される画像処理方法によれば、処理時間の長さは800msであり、したがって画像処理効率は大幅に改善される。さらに、複数の1次画像は1次カメラによって取り込まれ、合成およびノイズ低減処理は複数の1次画像に対して実行され、したがって、画像処理が弱光環境下でただ1つの1次画像に対して低品質で実行されるために画像処理効果が低いという問題が回避され、それによって画像処理効果を向上させることができる。
第2のシナリオ
このシナリオでは、現在の環境の明るさに応じてマルチフレームノイズ低減を採用するかどうかが決定される。マルチフレームノイズ低減は弱光環境で使用されるが、強光環境では使用されない。図7に示すように、撮影環境の明るさが検出される。明るさが所定の閾値未満である場合、現在の環境が弱光を有することを示し、上記のシステムは、複数の1次画像および2次画像を同時に取り込むように1次カメラおよび2次カメラを制御する。複数の1次画像のうちの1つが基準1次画像として選択され、基準1次画像に対応する基準2次画像が選択される(第2の1次画像が基準1次画像として選択される場合、第2の2次画像が選択される)。
合成およびノイズ低減処理は複数の1次画像に対して実行され、合成およびノイズ低減された画像は第1のスレッドによって画像処理方策に従って処理されて目標1次画像が生成され、同時に、第2のスレッドでは、被写界深度情報は基準1次画像および基準2次画像に従って取得され、したがって、合成およびノイズ低減処理と被写界深度情報の取得とが同期して実行され得る。被写界深度情報は、マルチフレーム合成およびノイズ低減処理の前の画像を使用して取得され、したがって被写界深度情報を取得する精度が確保される。
また、図7に示すように、スレッドには被写界深度情報を取得するのに時間がかかるので、合成およびノイズ低減処理の後、美化操作およびフィルタ適用操作は、スレッドにより合成およびノイズ低減された画像に対して実行され得る。2つのスレッドが対応する操作を完了した後、背景ぼかしは、被写界深度情報に従って目標1次画像に対して実行されて最終目標画像が取得される。このようにして、最終目標画像のノイズ点が減少し、美化およびファイラ適用効果を実現することができ、したがって、ポートレート画像の効果が大幅に改善され、処理時間の長さはあまり増大しない。
本開示の諸実施形態による画像処理方法では、1次カメラを制御して複数の1次画像を取り込み、同時に2次カメラを制御して複数の2次画像を取り込む。基準1次画像は複数の1次画像から取得され、基準1次画像とともに1対の画像を形成するように取り込まれた基準2次画像は複数の2次画像から取得される。第1のスレッドは複数の1次画像に対して合成およびノイズ低減処理を実行し、予め設定された画像処理方策に従って合成およびノイズ低減された画像を処理して目標1次画像を生成し、同時に、第2のスレッドは基準1次画像および基準2次画像に従って被写界深度情報を取得する。目標1次画像の背景領域は被写界深度情報に従ってぼかされる。このようにして、画像処理は、被写界深度情報を取得する時間の長さと複数の1次画像に対するマルチフレーム合成およびノイズ低減処理の時間の長さとの時間差を最大限に活用することによって実現され、したがって、取得済み被写界深度情報の精度および画像処理効率が改善される。
上記の実施形態を実施するために、本開示は画像処理装置をさらに提供する。図8は、本開示の一実施形態による画像処理装置のブロック図である。図8に示すように、画像処理装置は、取込みモジュール100、第1の取得モジュール200、第2の取得モジュール300、および処理モジュール400を含む。
取込みモジュール100は、1次カメラを制御して複数の1次画像を取り込み、同時に2次カメラを制御して複数の2次画像を取り込むように構成される。
一実施形態では、図9に示すように、図8を参照して説明した実施形態に基づいて、取込みモジュール100は検出ユニット110および取込みユニット120を含む。
検出ユニット110は、撮影環境の明るさを検出するように構成される。
取込みユニット120は、明るさが所定の閾値未満であることを検出したのに応答して、1次カメラを制御して複数の1次画像を取り込み、同時に2次カメラを制御して複数の2次画像を取り込むように構成される。
第1の取得モジュール200は、複数の1次画像から基準1次画像を取得し、複数の2次画像から基準2次画像を取得するように構成され、基準2次画像は、基準1次画像が取り込まれるのと同時に取り込まれる。
第2の取得モジュール300は、複数の1次画像に対して合成およびノイズ低減処理を実行し、第1のスレッドにより予め設定された画像処理方策に従って合成およびノイズ低減された画像を処理して目標1次画像を生成し、同時に第2のスレッドにより基準1次画像および基準2次画像に基づいて被写界深度情報を取得するように構成される。
処理モジュール400は、被写界深度情報に従って目標1次画像の背景領域をぼかすように構成される。
一実施形態では、図10に示すように、図8を参照して説明した実施形態に基づいて、画像処理装置は、第3の取得モジュール500および設定モジュール600をさらに含むことができる。
第3の取得モジュール500は、第1のスレッドによって実行される合成およびノイズ低減処理の第1の時間の長さを取得し、第2のスレッドにより被写界深度情報を取得する第2の時間の長さを取得するように構成される。
設定モジュール600は、第1の時間の長さと第2の時間の長さとの差に応じて画像処理方策を設定するように構成される。
前述の方法実施形態の説明は、本開示の実施形態による装置にも適用可能であり、実施原理は同様であるので、本明細書では説明しない。
画像処理装置の上記のモジュールは単なる提示的なものである。他の実施形態では、画像処理装置は、画像処理装置の機能の全部または一部を実施するために様々なモジュールに分割され得る。
本開示の諸実施形態による画像処理装置では、1次カメラは複数の1次画像を取り込むように制御され、同時に2次カメラは複数の2次画像を取り込むように制御される。基準1次画像は複数の1次画像から取得され、基準1次画像とともに1対の画像を形成するように取り込まれた基準2次画像は複数の2次画像から取得される。第1のスレッドは複数の1次画像に対して合成およびノイズ低減処理を実行し、予め設定された画像処理方策に従って合成およびノイズ低減された画像を処理して目標1次画像を生成し、同時に、第2のスレッドは基準1次画像および基準2次画像に従って被写界深度情報を取得する。目標1次画像の背景領域は被写界深度情報に従ってぼかされる。このようにして、画像処理は、被写界深度情報を取得する時間の長さと複数の1次画像に対するマルチフレーム合成およびノイズ低減処理の時間の長さとの時間差を最大限に活用することによって実現され、したがって、取得済み被写界深度情報の精度および画像処理効率が改善される。
上記の実施形態を実施するために、本開示はコンピュータ装置をさらに提供する。上記のコンピュータ装置は画像処理回路を含む。画像処理回路は、画像信号処理(ISP)ラインを定義するための様々な処理ユニットを含むハードウェアコンポーネントおよび/またはソフトウェアコンポーネントによって実施され得る。図11は、本開示の一実施形態による画像処理回路の概略図である。図11に示すように、記述を簡単にするために、本開示の実施形態に関連する画像処理技術の態様だけが示されている。
図11に示すように、画像処理回路は、ISPプロセッサ1040および制御論理装置1050を含む。撮像装置1010によって取り込まれた画像データは、最初にISPプロセッサ1040によって処理される。ISPプロセッサ1040は画像データを分析して、撮像装置1010の1つまたは複数の制御パラメータを決定するおよび/またはための画像統計情報を取り込む。撮像装置1010は、1つまたは複数のレンズ1012とイメージセンサ1014とを有するカメラを含むことができる。イメージセンサ1014は、カラーフィルタアレイ(ベイヤーフィルタ(Bayer filter)など)を含むことができる。イメージセンサ1014は、イメージセンサ1014の各撮像画素によって取り込まれた光強度および波形情報を取得することができ、ISPプロセッサ1040によって処理され得る元の画像データのセットを提供する。センサ1020は、センサ1020のインタフェースタイプに基づいて元の画像データをISPプロセッサ1040に提供する。センサ1020のインタフェースは、標準のモバイルイメージングアーキテクチャ(SMIA)インタフェース、他のシリアルもしくはパラレルカメラインタフェース、または上記のインタフェースを組み合わせたものを利用することができる。
ISPプロセッサ1040は、様々な形態に応じて画素ごとに元の画像データを処理する。例えば、各撮像画素は、8、10、12、または14ビットのビット深度を有することができる。ISPプロセッサ1040は、元の画像データに対して1つまたは複数の画像処理操作を実行し、画像データの統計情報を収集することができる。画像処理操作は、同じまたは異なるビット深度の精度で実行され得る。
ISPプロセッサ1040は、画像記憶装置1030から画素データを受信することができる。例えば、元の画素データは、センサ1020のインタフェースから画像記憶装置1030に送信され得る。画像記憶装置1030内の元の画素データは、処理のためにISPプロセッサ1040にさらに提供される。画像記憶装置1030は、メモリの一部、記憶装置、または電子装置内の別個の特定の記憶装置であってもよく、直接メモリアクセス(DMA)の機能を含むことができる。
センサ1020または画像記憶装置1030のインタフェースから元の画像データを受信すると、ISPプロセッサ1040は、タイムドメインフィルタリングなど、1つまたは複数の画像処理操作を実行することができる。処理済み画像データは、表示する前にさらなる処理を実行することができるように、画像記憶装置1030に送信されてもよい。ISPプロセッサ1040は、画像記憶装置1030から処理済みデータを受信し、元のドメインならびにRGBおよびYCbCrの色空間内の処理済みデータに対して画像データ処理を実行することができる。処理済み画像データは、ユーザによって見られるためのディスプレイ1070に出力され得る、かつ/またはグラフィックス処理ユニット(GPU)によってさらに処理され得る。加えて、ISPプロセッサ1040の出力はさらに画像記憶装置1030に送信することができ、ディスプレイ1070は画像記憶装置1030から画像データを読み取ることができる。一実施形態では、画像記憶装置1030は、1つまたは複数のフレームブラファ(frame bluffers)を実装するように構成することができる。さらに、ISPプロセッサ1040の出力は、符号化/復号されるためのエンコーダ/デコーダ1060に送信することができる。符号化された画像データは保存され、ディスプレイ1070に表示される前に復号され得る。エンコーダ/デコーダ1060は、CPUもしくはGPUまたはコプロセッサによって実装され得る。
ISPプロセッサ1040によって決定された統計データは、制御論理装置1050に送信され得る。例えば、統計データは、レンズ1012の自動露出、自動ホワイトバランス、自動焦点合わせ、シンチレーション検出、黒レベル補正、およびシェーディング補正を施されたイメージセンサ1040の統計情報を含むことができる。制御論理装置1050は、1つまたは複数のルーチン(ファームウェア)を実行するためのプロセッサおよびマイクロコントローラを含むことができる。1つまたは複数のルーチンは、受信された統計データに従って撮像装置1010の制御パラメータを決定することができる。例えば、制御パラメータには、センサ1020の制御パラメータ(利得、露出制御の積分時間など)、カメラのフラッシュ制御パラメータ、レンズ1012の制御パラメータ(焦点合わせやズーミング焦点距離など)、またはこれらの制御パラメータを組み合わせたものが含まれ得る。ISPの制御パラメータには、自動ホワイトバランスおよび色調整(例えば、RGB処理中)のための利得レベルおよび色補正マトリクスとレンズ1012のシェーディング補正パラメータとが含まれ得る。
図11の画像処理技術は、1次カメラを制御して複数の1次画像を取り込み、同時に2次カメラを制御して複数の2次画像を取り込むことと、複数の1次画像から基準1次画像を取得し、複数の2次画像から基準2次画像を取得することであって、基準2次画像および基準1次画像が関連付けて取り込まれ、1対の画像を形成することと、第1のスレッドにより複数の1次画像に対して合成およびノイズ低減処理を実行して合成およびノイズ低減された画像を生成し、予め設定された画像処理方策に従って合成およびノイズ低減された画像を処理して目標1次画像を生成し、同時に第2のスレッドにより基準1次画像および基準2次画像に基づいて被写界深度情報を取得することと、被写界深度情報に従って目標1次画像の背景領域をぼかすことと、を含む画像処理方法を実施するために使用することができる。
上記の実施形態を実施するために、本開示は、非一時的コンピュータ可読記憶媒体をさらに提供する。記憶媒体内の命令がプロセッサによって実行されると、プロセッサは画像処理方法を実行させられる。
本明細書全体を通して「一実施形態(an embodiment)」、「いくつかの実施形態(some embodiments)」、「一例(an example)」、「特定の例(a specific example)」、または「いくつかの例(some examples)」への言及は、その実施形態または例に関連して記述される特定の特徴、構造、材料、または特性が本開示の少なくとも1つの実施形態または例に含まれることを意味する。本明細書では、前述の用語の例示的な説明は、必ずしも同じ実施形態または例を指すものではない。さらに、特定の特徴、構造、材料、または特性は、1つまたは複数の実施形態または例において任意の適当な態様で組み合わされ得る。さらに、当業者なら、本開示に記述される実施形態または例において様々な実施形態または様々な特性を組み合わせることができるであろう。
さらに、「第1の(first)」および「第2の(second)」という用語は説明のためにのみ用いられ、相対的重要性を指摘または含意するあるいは指示した技術的特徴の数を指摘または含意すると見なすことはできない。したがって、「第1の」および「第2の」で定義される特徴は、これらの特徴のうちの少なくとも1つを含むまたは含意することがある。本開示の説明では、「複数の(a plurality of)」は、特に指定されない限り、2つまたは3つ以上を意味する。
フローチャートに記載されている、または他の方法で本明細書に記載されているプロセスまたは方法は、そのプロセス内の特定の論理的機能またはステップを実現するための実行可能命令のコードの1つまたは複数のモジュール、セグメントまたは部分を含むと理解することができ、本開示の好ましい実施形態の範囲は他の実施態様を含み、実行の順序は、図示または議論されているものとは異なることがあり、関連する機能に従って、その機能を果たすために同時にもしくは部分的に同時に、または逆の順序で実行することを含み、このことは当業者なら理解するであろう。
本明細書に他の態様で記載されている、またはフローチャートに示されている論理および/またはステップ、例えば、論理的機能を実現するための実行可能命令の特定のシーケンス表は、具体的には、命令実行システム、装置または機器(コンピュータをベースとするシステム、プロセッサを備えるシステム、あるいは命令実行システム、装置および機器から命令を取得し、この命令を実行することができる他のシステムなど)によって使用されるべき任意のコンピュータ可読媒体で、あるいは命令実行システム、装置および機器と組み合わせて使用されるべき任意のコンピュータ可読媒体で実現することができる。本明細書に関して、「コンピュータ可読媒体」は、命令実行システム、装置または機器によって、あるいは命令実行システム、装置または機器と組み合わせて使用されるべきプログラムを含める、保存する、通信する、伝達する、または転送するのに適応できる任意の装置であり得る。コンピュータ可読媒体のより具体的な例としては、1つまたは複数の電線を有する電子接続(電子装置)、携帯用コンピュータ筐体(磁気装置)、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能なプログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、光ファイバ装置、および携帯用コンパクトディスクリードオンリメモリ(CDROM)があるが、これらに限定されるものではない。加えて、コンピュータ可読媒体は、その上にプログラムを印刷することができる紙または他の適切な媒体であってもよく、これは、例えば、紙または他の適切な媒体は、光学的に走査され、次いで他の適切な方法で編集、解読または処理されて、必要なときに電子的方法でプログラムを得ることができ、次いでプログラムはコンピュータメモリに保存することができるからである。
本開示の各部分は、ハードウェア、ソフトウェア、ファームウェアまたはこれらを組み合わせたものによって実現され得ることが理解されるべきである。上記の実施形態では、複数のステップまたは方法が、メモリに保存され適切な命令実行システムによって実行されるソフトウェアまたはファームウェアによって実現され得る。例えば、本開示の各部分がハードウェアによって実現される場合、同様に別の実施形態では、ステップまたは方法は、当技術分野で知られている下記の技法、すなわち、データ信号の論理関数を実現するための論理ゲート回路を有するディスクリート論理回路、適切な組み合わせ論理ゲート回路を有するアプリケーション専用集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)などのうちの1つまたはそれらを組み合わせたものによって実現され得る。
当業者なら、本開示のための上記の例示した方法におけるステップの全部または一部が関連するハードウェアにプログラムで命令することによって実現され得ること、プログラムがコンピュータ可読記憶媒体に保存され得ること、ならびにプログラムがコンピュータ上で走るときに本開示の方法実施形態におけるステップのうちの1つまたはステップの組み合わせを含むこと、を理解するであろう。
加えて、本開示の諸実施形態の各機能セルが処理モジュール内に統合されてもよく、またはこれらのセルが別個の物理的存在であってもよく、または2つ以上のセルが処理モジュール内に統合される。統合モジュールは、ハードウェアの形でまたはソフトウェア機能モジュールの形で実現され得る。統合モジュールがソフトウェア機能モジュールの形で実現され、スタンドアロン製品として販売または使用される場合、統合モジュールはコンピュータ可読記憶媒体に保存され得る。
上述した記憶媒体は、リードオンリメモリ、磁気ディスク、CDなどとすることができる。以上、本開示の諸実施形態について示し説明してきたが、上記の実施形態は単なる説明であり、本開示を限定するものと解釈してはならないことを理解すべきであり、当業者には、本開示の精神、原理、および範囲から逸脱することなく、実施形態に変更、代替、および修正がなされ得る。

Claims (15)

  1. 画像処理方法であって、
    第1のカメラを制御して複数の第1の画像を取り込み、第2のカメラを制御して複数の第2の画像を取り込むこと(101)と、
    前記複数の第1の画像から第1の基準画像を取得し、前記複数の第2の画像から第2の基準画像を取得すること(102)であって、前記第2の基準画像および前記第1の基準画像が関連付けて取り込まれ、1対の画像を形成すること(102)と、
    第1のスレッドにより前記複数の第1の画像に対して合成およびノイズ低減処理を実行して合成およびノイズ低減された画像を生成し、前記合成およびノイズ低減された画像を予め設定された画像処理方策に従って処理して目標画像を生成し、第2のスレッドにより前記第1の基準画像および前記第2の基準画像に基づいて被写界深度情報を取得すること(103)と、
    前記被写界深度情報に従って前記目標画像の背景領域をぼかすこと(104)と
    を含む、画像処理方法。
  2. 前記第1のカメラを制御して前記複数の第1の画像を取り込み、前記第2のカメラを制御して前記複数の第2の画像を取り込むこと(101)が、
    撮影環境の明るさを検出することと、
    前記明るさが所定の閾値未満であることを検出したのに応答して、前記第1のカメラを制御して前記複数の第1の画像を取り込み、前記第2のカメラを制御して前記複数の第2の画像を取り込むことと
    を含む、請求項1に記載の方法。
  3. 前記複数の第1の画像から前記第1の基準画像を取得し、前記複数の第2の画像から前記第2の基準画像を取得すること(102)が、
    前記複数の第1の画像から第1の画像のセットを選択することであって、前記第1の画像のセットの各第1の画像が所定の鮮明度より大きい鮮明度を有することと、
    前記複数の第2の画像から第2の画像のセットを選択することであって、前記第2の画像のセットの各第2の画像が前記第1の画像のセットの当該第1の画像とともに1対の画像を形成することと、
    前記第1の画像のセットから前記第1の基準画像を選択し、前記第2の画像のセットから前記第2の基準画像を選択することと
    を含む、請求項1または2に記載の方法。
  4. 前記第1のスレッドにより前記複数の第1の画像に対して前記合成およびノイズ低減処理を実行して前記合成およびノイズ低減された画像を生成すること(103)が、
    前記複数の第1の画像内の同じ位置に対応する画素の値を読み出すことと、
    前記値の平均値を計算することと、
    前記平均値を、前記合成およびノイズ低減された画像内の同じ位置に対応する前記画素の値として決定することと
    を含む、請求項1〜3のいずれかに記載の方法。
  5. 前記被写界深度情報に従って前記目標画像の背景領域をぼかすこと(104)が、
    前景領域の第1の被写界深度および前記背景領域の第2の被写界深度を取得することと、
    前記第1の被写界深度および前記第2の被写界深度に応じてぼかし度を生成することと、
    前記ぼかし度に応じて前記目標画像の前記背景領域をぼかすことと
    を含む、請求項1〜4のいずれかに記載の方法。
  6. 前記前景領域の前記第1の被写界深度および前記背景領域の前記第2の被写界深度を取得することが、
    取込みパラメータを取得することと、式および前記取込みパラメータに従って前記前景領域の前記第1の被写界深度および前記背景領域の前記第2の被写界深度を決定することと
    を含む、
    または、
    前記第1のカメラおよび前記第2のカメラによって取得された現在の取込み済み画像のデータに従って焦点領域を越える撮像領域の被写界深度マップを取得することと、前記被写界深度マップに従って前記前景領域の前記第1の被写界深度および前記背景領域の前記第2の被写界深度を決定することと
    を含む、請求項5に記載の方法。
  7. 前記ぼかし度に応じて前記目標画像の前記背景領域をぼかすことが、
    前記ぼかし度および前記画素の被写界深度に応じて前記目標画像の前記背景領域内の各画素のぼかし係数を取得することと、
    各画素の前記ぼかし係数に応じて前記目標画像の前記背景領域をぼかすことと
    を含む、請求項5に記載の方法。
  8. 前記第1のスレッドによって実行される前記合成およびノイズ低減処理の第1の時間の長さを取得し、前記第2のスレッドにより前記被写界深度情報を取得する第2の時間の長さを取得すること(201)と、
    前記第1の時間の長さと前記第2の時間の長さとの差に応じて前記画像処理方策を設定すること(202)と
    をさらに含む、請求項1〜7のいずれかに記載の方法。
  9. 前記明るさが前記所定の閾値以上であることを検出したのに応答して、前記第1のカメラを制御して第1の画像フレームを取り込み、前記第2のカメラを制御して第2の画像フレームを取り込むこと(301)と、
    前記第1のスレッドにより前記予め設定された画像処理方策に従って前記第1の画像フレームを処理して前記目標画像を生成し、前記第2のスレッドにより前記第1の画像フレームおよび前記第2の画像フレームに基づいて前記被写界深度情報を取得すること(302)と、
    前記被写界深度情報に従って前記目標画像の前記背景領域をぼかすこと(303)と
    をさらに含む、請求項2に記載の方法。
  10. 前記第2のスレッドにより前記被写界深度情報を取得する時間の長さを取得することと、
    前記第2のスレッドにより前記被写界深度情報を取得する時間の長さに応じて前記画像処理方策を設定することと
    をさらに含む、請求項9に記載の方法。
  11. メモリとプロセッサと前記メモリ上に保存され前記プロセッサ上で実行可能なコンピュータプログラムとを備えるコンピュータ装置であって、前記プロセッサが前記コンピュータプログラムを実行するときに、前記プロセッサが請求項1〜10のいずれかに記載の画像処理方法を実行させられる、コンピュータ装置。
  12. 画像処理方法であって、
    第1のカメラを制御して第1の画像を取り込み、第2のカメラを制御して第2の画像を取り込むことと、
    第1のスレッドにより予め設定された画像処理方策に従って前記第1の画像を処理して目標画像を生成し、第2のスレッドにより前記第1の画像および前記第2の画像に基づいて被写界深度情報を取得することと、
    前記被写界深度情報に従って前記目標画像の背景領域をぼかすことと
    を含む、画像処理方法。
  13. 前記第2のスレッドにより前記被写界深度情報を取得する時間の長さを取得することと、
    前記第2のスレッドにより前記被写界深度情報を取得する時間の長さに応じて前記画像処理方策を設定することと
    をさらに含む、請求項12に記載の方法。
  14. 撮影環境の明るさを検出すること
    をさらに含む、請求項13に記載の方法であって、
    前記撮影環境の前記明るさが所定の閾値未満であることを検出したのに応答して、
    前記第1のカメラを制御して前記第1の画像を取り込み、前記第2のカメラを制御して前記第2の画像を取り込むことが、前記第1のカメラを制御して複数の第1の画像を取り込み、前記第2のカメラを制御して複数の第2の画像を取り込むことを含み、
    前記第1のスレッドにより前記予め設定された画像処理方策に従って前記第1の画像を処理して前記目標画像を生成し、前記第2のスレッドにより前記第1の画像および前記第2の画像に基づいて被写界深度情報を取得することが、
    前記複数の第1の画像から第1の基準画像を取得し、前記複数の第2の画像から第2の基準画像を取得することであって、前記第2の基準画像および前記第1の基準画像が関連付けて取り込まれ1対の画像を形成することと、
    第1のスレッドにより前記複数の第1の画像に対して合成およびノイズ低減処理を実行して合成およびノイズ低減された画像を生成し、前記予め設定された画像処理方策に従って前記合成およびノイズ低減された画像を処理して前記目標画像を生成し、前記第2のスレッドにより前記第1の基準画像および前記第2の基準画像に基づいて被写界深度情報を取得することと
    を含む、方法。
  15. 前記第1のスレッドによって実行される前記合成およびノイズ低減処理の第1の時間の長さを取得し、前記第2のスレッドにより前記被写界深度情報を取得する第2の時間の長さを取得することと、
    前記第1の時間の長さと前記第2の時間の長さとの差に応じて前記画像処理方策を設定することと
    をさらに含む、請求項14に記載の方法。
JP2020503756A 2017-11-01 2018-10-31 画像処理方法および装置 Active JP6903816B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711060087.1A CN108024054B (zh) 2017-11-01 2017-11-01 图像处理方法、装置、设备及存储介质
CN201711060087.1 2017-11-01
PCT/CN2018/113095 WO2019085951A1 (en) 2017-11-01 2018-10-31 Image processing method, and device

Publications (2)

Publication Number Publication Date
JP2020528702A true JP2020528702A (ja) 2020-09-24
JP6903816B2 JP6903816B2 (ja) 2021-07-14

Family

ID=62080412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503756A Active JP6903816B2 (ja) 2017-11-01 2018-10-31 画像処理方法および装置

Country Status (7)

Country Link
US (1) US10805508B2 (ja)
EP (1) EP3480784B1 (ja)
JP (1) JP6903816B2 (ja)
KR (1) KR102266649B1 (ja)
CN (1) CN108024054B (ja)
ES (1) ES2788854T3 (ja)
WO (1) WO2019085951A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024054B (zh) 2017-11-01 2021-07-13 Oppo广东移动通信有限公司 图像处理方法、装置、设备及存储介质
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN108282616B (zh) * 2018-01-31 2019-10-25 Oppo广东移动通信有限公司 图像的处理方法、装置、存储介质及电子设备
CN109064415A (zh) * 2018-07-09 2018-12-21 奇酷互联网络科技(深圳)有限公司 图像处理方法、系统、可读存储介质及终端
CN109803087B (zh) * 2018-12-17 2021-03-16 维沃移动通信有限公司 一种图像生成方法及终端设备
KR102597518B1 (ko) * 2019-02-20 2023-11-03 삼성전자주식회사 영상에 보케 효과를 적용하는 전자 장치 및 그 제어 방법
CN110198411B (zh) * 2019-05-31 2021-11-02 努比亚技术有限公司 一种视频拍摄过程中的景深控制方法、设备及计算机可读存储介质
CN110266960B (zh) * 2019-07-19 2021-03-26 Oppo广东移动通信有限公司 预览画面处理方法、处理装置、摄像装置及可读存储介质
CN110728632B (zh) * 2019-09-04 2022-07-12 北京奇艺世纪科技有限公司 图像模糊处理方法、装置、计算机设备和存储介质
CN113298735A (zh) * 2021-06-22 2021-08-24 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174069A (ja) * 2004-12-15 2006-06-29 Canon Inc 撮影装置及び撮影方法
JP2014014076A (ja) * 2012-07-03 2014-01-23 Woodman Labs Inc 3d深度情報に基づいたイメージぼかし

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5672796B2 (ja) * 2010-01-13 2015-02-18 株式会社ニコン 画像処理装置、画像処理方法
KR101845318B1 (ko) 2010-11-29 2018-05-18 포토내이션 리미티드 핸드헬드 장치상에서 캡처된 다수의 이미지로부터의 인물사진 이미지 합성
KR101975247B1 (ko) 2011-09-14 2019-08-23 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
CN103493093B (zh) * 2011-11-17 2017-07-18 松下知识产权经营株式会社 图像处理装置、摄像装置及图像处理方法
KR101917224B1 (ko) * 2012-09-18 2018-11-13 엘지이노텍 주식회사 영상데이터 전송장치
CN104253939A (zh) * 2013-06-27 2014-12-31 聚晶半导体股份有限公司 调整对焦位置的方法及电子装置
US9473708B1 (en) * 2013-08-07 2016-10-18 Google Inc. Devices and methods for an imaging system with a dual camera architecture
CN103945118B (zh) * 2014-03-14 2017-06-20 华为技术有限公司 图像虚化方法、装置及电子设备
WO2015172366A1 (zh) * 2014-05-15 2015-11-19 华为技术有限公司 用于多帧降噪的方法和终端
JP6645682B2 (ja) 2015-03-17 2020-02-14 キヤノン株式会社 距離取得装置、距離画像信号補正装置、撮像装置、距離画像量子化装置、および方法
CN105100615B (zh) * 2015-07-24 2019-02-26 青岛海信移动通信技术股份有限公司 一种图像的预览方法、装置及终端
CN105513007A (zh) 2015-12-11 2016-04-20 惠州Tcl移动通信有限公司 一种基于移动终端的拍照美颜方法、系统及移动终端
CN105450931B (zh) 2015-12-30 2019-04-26 联想(北京)有限公司 一种基于阵列相机的成像方法、装置和电子设备
CN105763813A (zh) * 2016-04-05 2016-07-13 广东欧珀移动通信有限公司 一种拍照方法、装置及智能终端
US10200632B2 (en) * 2016-08-01 2019-02-05 Microsoft Technology Licensing, Llc Low-illumination photo capture with reduced noise and blur
US10200623B1 (en) * 2017-10-17 2019-02-05 Qualcomm Incorporated Image capture setting determination in flash photography operations
CN108024054B (zh) 2017-11-01 2021-07-13 Oppo广东移动通信有限公司 图像处理方法、装置、设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174069A (ja) * 2004-12-15 2006-06-29 Canon Inc 撮影装置及び撮影方法
JP2014014076A (ja) * 2012-07-03 2014-01-23 Woodman Labs Inc 3d深度情報に基づいたイメージぼかし

Also Published As

Publication number Publication date
KR20200031169A (ko) 2020-03-23
CN108024054A (zh) 2018-05-11
EP3480784B1 (en) 2020-03-11
JP6903816B2 (ja) 2021-07-14
WO2019085951A1 (en) 2019-05-09
EP3480784A1 (en) 2019-05-08
ES2788854T3 (es) 2020-10-23
KR102266649B1 (ko) 2021-06-18
CN108024054B (zh) 2021-07-13
US10805508B2 (en) 2020-10-13
US20190132495A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
JP6903816B2 (ja) 画像処理方法および装置
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
JP7145208B2 (ja) デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体
CN108055452B (zh) 图像处理方法、装置及设备
JP7015374B2 (ja) デュアルカメラを使用する画像処理のための方法および移動端末
CN107509031B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
CN108154514B (zh) 图像处理方法、装置及设备
CN108111749B (zh) 图像处理方法和装置
CN107493432B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
JP2020533697A (ja) 画像処理のための方法および装置
CN107872631B (zh) 基于双摄像头的图像拍摄方法、装置及移动终端
CN108156369B (zh) 图像处理方法和装置
CN108053438B (zh) 景深获取方法、装置及设备
US10334161B2 (en) Image processing apparatus, image processing method, computer program and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210623

R150 Certificate of patent or registration of utility model

Ref document number: 6903816

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150