JP7003238B2 - 画像処理方法、装置、及び、デバイス - Google Patents

画像処理方法、装置、及び、デバイス Download PDF

Info

Publication number
JP7003238B2
JP7003238B2 JP2020517976A JP2020517976A JP7003238B2 JP 7003238 B2 JP7003238 B2 JP 7003238B2 JP 2020517976 A JP2020517976 A JP 2020517976A JP 2020517976 A JP2020517976 A JP 2020517976A JP 7003238 B2 JP7003238 B2 JP 7003238B2
Authority
JP
Japan
Prior art keywords
image
area
region
depth
exposure time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020517976A
Other languages
English (en)
Other versions
JP2020535758A (ja
Inventor
チャン、ゴン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020535758A publication Critical patent/JP2020535758A/ja
Application granted granted Critical
Publication of JP7003238B2 publication Critical patent/JP7003238B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、写真技術の技術分野に関するものであり、特に、画像処理方法、装置、及び、デバイスに関する。
一般に、撮像物体をハイライトするため、画像の前景領域と後景領域が認識され、後景領域がぼかされる。しかしながら、画像を撮像する間、もし前景領域の明るさが適当でないと、ぼかし処理が施された画像の中の物体が、ハイライトがなされないことがある。例えば、もし撮像物体が暗いシーンの中にあるとすると、画像効果は比較的不十分であり、輝度は極めて低く、細部は比較的不鮮明である。後景領域がぼかされた後、撮像物体が未だハイライトできていないと、画像処理を通じた視覚効果は比較的不十分である。
関連技術では、画像処理を通じて達成された視覚効果を向上させるべく、複数の画像フレームを取得するために、撮像に異なる露光パラメータが用いられ、複数の画像フレームが合成されて、高いダイナミックレンジの画像が生成される。しかしながら、合成計算と複数の画像フレームを撮像する処理の両方に多くの時間が必要とされ、その結果、高いダイナミックレンジの画像の低い生成効率がもたらされる。
実施形態の参考のために付随する図の説明は以下に基づき、本開示の上記により、及び/又は付加の局面と発展の局面を明らかにし、理解を容易にする。
本開示の実施形態に基づく画像処理方法のフローチャートである。 本開示の実施形態に基づく画像撮像方法のフローチャートである。 本開示の実施形態に基づく三角測量測距原理の概略図である。 本開示の実施形態に基づくデュアルカメラを用いた領域深度の取得の概略図である。 本開示のもう一つの実施形態に基づく後景領域のぼかし処理方法のフローチャートである。 本開示のもう一つの実施形態に基づく画像処理方法のフローチャートである。 本開示の実施形態に基づく目標画像を生成する処理の図である。 本開示の実施形態に基づく画像処理装置の概略構造図である。 本開示の実施形態に基づく画像処理の概略図である。
本開示は、高いダイナミックレンジ画像の生成効率が比較的低いという関連技術の技術的問題を解決する可能性を提供することが可能な、画像処理方法、装置、及び、デバイスを提供する。
第1の観点によれば、この開示の実施形態は、以下の動作を含む、画像処理方法を提供している。デュアルカメラを用いて、第1画像はプリセット第1露光時間に基づき撮像され、第2画像は第2露光時間に基づき撮像される。ここで第2露光時間は撮像シーン及びプリセット閾値の輝度に基づき決定される。第1画像の第1前景領域と第1後景領域が決定され、第2画像の第2前景領域が決定される。画像フュージョンは第2前景領域と第1前景領域について実行され、第3前景領域を生成する。ぼかし処理は第1後景領域について実行され、第3前景領域とぼかし処理が実行された第1後景領域を合成することにより目標画像を生成する。
第2の観点によれば、本開示の実施形態は、画像処理装置を提供する。画像処理装置は、メモリ及びプロセッサを含んでもよい。メモリは1又は複数のコンピュータプログラムを格納し、コンピュータプログラムは、プロセッサにより実行された時、プロセッサに第1の観点に記述した画像処理方法を実現させる。
第3の観点によれば、本開示の実施形態は、コンピュータプログラムが格納された、非一時的なコンピュータ可読記憶媒体を提供する。コンピュータプログラムは、プロセッサによって実行された時、プロセッサに第1の観点で記載した画像処理方法を実現させてもよい。
発明の詳細な説明
この開示の実施形態の詳細を以下に記述する。実施形態の具体例を付随する図に描く。この明細書の全体を通して、同じ又は類似した符号は、同じ若しくは類似した要素、又は、同じ若しくは類似した機能を持つ要素を示す。以下、参考の図とともに記載された実施形態は例示であり、本開示の説明のためだけに用いられ、本開示の限定として解釈されるべきではない。
本開示の実施形態に基づく、画像処理方法、装置及びデバイスを、以下に付随した図面を参照しつつ記述する。
本開示の実施形態において提供される画像処理方法、装置及びデバイスによれば、デュアルカメラを用いて、第1プリセット露光時間に基づき第1画像が撮像され、第2露光時間に基づき第2画像が撮像される。ここで、第2露光時間は撮像シーン及びプリセット閾値の輝度に基づいて決定される。第1画像の第1前景領域と第1後景領域が決定され、第2画像の第2前景領域が決定される。画像フュージョンは第2前景領域と第1前景領域に対して実行され、第3前景領域を生成する。ぼかし処理が第1後景領域に対して実行され、第3前景領域とぼかし処理が実行された第1後景領域とが合成されて、目標画像が生成される。したがって、高いダイナミックレンジ画像の生成効率と視覚効果が向上される。
本開示の実施形態によれば、画像処理方法は端末装置で実行されてもよい。端末装置は、デュアルカメラを備えるハードウェア端末でよく、例えば、携帯電話、タブレットコンピュータ、パーソナルデジタルアシスタント及びウェアラブル端末である。ウェアラブル端末は、スマートバンド、スマートウォッチ、スマートグラス、又はそれらに類する端末でよい。
図1は、本開示の実施形態による、画像処理方法のフローチャートである。図1に描かれているように、画像処理方法はブロック101から104の動作を含む。
ブロック101では、デュアルカメラを用いて、第1画像はプリセット第1露光時間に基づき撮像され、第2画像は第2露光時間に基づいて撮像される。
本開示の実施形態では、第2露光時間は撮像シーンとプリセット閾値の輝度により決定されてもよい。デュアルカメラは第1カメラと第2カメラを含んでいる。例えば、第1カメラはプライマリカメラであり、第2カメラはセカンダリカメラである。もう一つの代替例としては、第1カメラがセカンダリカメラであり、第2カメラがプライマリカメラである。ここに限定は無い。
本開示の実施形態では、図2で描かれているように、ブロック101での動作は、ブロック101aから101cの動作を含んでいる。
ブロック101aでは、第1カメラを用いて第1露光時間により、第1主画像が撮像され、同時に、第2カメラを用いて第1露光時間により、従画像が撮像される。
ブロック101bでは、第1主画像と従画像により、領域情報の深度が取得され、第1主画像と従画像が合成され第1画像が取得される。
特に、本開示の実施形態では、第1主画像と従画像により、領域情報の深度が取得され、領域情報の深度は、画像の前景領域と後景領域を決定するために用いられる。ゆえに、領域情報の深度は、特定の数値となりえ、または、数的範囲となりえる。言い換えると、前景領域と後景領域との間の識別に利用可能な領域情報の深度が取得できることを保証するため、プライマリカメラとセカンダリカメラの両方が画像撮像を実行するよう制御される第1露光時間は、比較的短くてもよい。特定の実施態様の設定において、第1露光時間は、端末装置の処理能力とカメラの光感度に基づいて設定されてもよい。端末装置が高い処理能力を有し、且つ、カメラが光感度を有するとき、第1露光時間は短く設定され得る。
撮像物体に焦点を合わせたのち、領域の深度は、物体が位置する焦点範囲の前後の人間の眼で可視である鮮明な画像を生成するための空間的領域深度を参照する。
実際の適用においては、人間の眼は主として領域深度を両眼視を通じて決定することに注意されたい。両眼視を通じて領域深度を決定する原理と、デュアルカメラを通じて領域深度を決定する原理は同じであり、図3に描かれている三角測量測距原理を用いて主に実現される。図3に基づくと、実際の空間における、撮像物体、ORとOTに位置する2つのカメラ、2つのカメラ位置についての焦点平面が描かれ、焦点平面と2つのカメラが位置する平面との間の距離はfである。2つのカメラが焦点平面の位置で画像撮像を実行したとき、2つの撮像画像が取得される。
PとP'は、別々の撮像画像における、同じ物体の位置である。点Pと撮像画像の左側の境界線との間の距離はXRであり、また、点P'と撮像画像の左側の境界線との間の距離はXTである。ORとOTは2つのカメラを表していている。2つのカメラは同じ平面に位置し、2つのカメラの距離はBである。
三角測量測距原理に基づき、図3における物体と2つのカメラが位置する平面との距離Zについては、以下の関係がある。
Figure 0007003238000001
この原理から、
Figure 0007003238000002
が導き出せ、ここで、dは異なる撮像画像における同じ物体の間の距離の差である。Bとfは固定された値であることから、物体の距離Zは、dにより決定することができる。
ここで、上記の公式は2つの同じ平行したカメラに基づき実現されなければならないことを強調しておくべきであるが、実際の使用においては、現実に多くの問題がある。例えば、図2で描かれている2つのカメラを用いた領域の深度の算出の間、互いに交差しないいくつかのシーンが常にある。したがって、現実には、領域の深度を算出するためには、2つのカメラのFOV設計は異なる。プライマリカメラは、現実の画像の主画像を取得するように構成され、セカンダリカメラによって取得された従画像は、主に、領域の深度の算出のための基準として用いられる。解析に基づき、セカンダリカメラのフィールドオブビュー(FOV:Field of View)は、一般的にプライマリカメラのそれより大きい。しかしながら、図4に描かれているように、このケースにおいても、カメラの近傍に位置している物体は、2つのカメラを用いて取得された画像において、同時に撮像され得ない。領域レンジの算出関係の調整深度は、
Figure 0007003238000003
により表される。したがって、主画像の領域レンジの深度などは、調整公式により算出され得る。
三角測量測距方法に加えて、主画像の領域の深度の算出には、ほかのアプローチもまた用いられる。例えば、プライマリカメラとセカンダリカメラとが、同じシーンの画像撮像を実行しているとき、シーンにおける物体とカメラとの間の距離は、プライマリカメラ及びセカンダリカメラを用いて撮像している間に生成される、変位差、姿勢差などに比例する。したがって、本開示の例では、距離Zは比例関係により取得され得る。
例えば、図5に描かれたように、異なった点の視差の値が、プライマリカメラにより取得された主画像とセカンダリカメラにより取得された従画像を通じて算出される。例では、視差の値のグラフは視差マップによって表されている。視差マップは、2つの画像における同じ点の変位差を表し、しかし、変位差は三角配置では直接的にZに比例することから、視差マップは、直接、領域マップの深度として最も用いられている。
さらに、第1主画像と従画像に基づき、領域情報の深度が取得されたのち、第1主画像と従画像が合成され、第1画像、すなわち、合成画像が取得される。合成画像における情報は、プライマリカメラとセカンダリカメラに関連されていると理解されるべきである。プライマリカメラとセカンダリカメラのビューアングルが同じとき、合成画像は、プリセットシーンで撮像された第1主画像と従画像の画像情報を含んでおり、合成画像は、より多くの画像情報を含んでいる。プライマリカメラとセカンダリカメラが、それぞれ、広角カメラとロングフォーカスカメラであるとき、合成画像は広視野の後景領域の情報のみならず、撮像物体のラージスケールをも含んでいる。
ブロック101cでは、第2主画像は第1カメラまたは第2カメラを用いて、第2露光時間により撮像される。
本開示の少なくとも1つの実施形態では、プリセット撮像の輝度は、第2露光時間を決定する前に検出される。
プリセット第1露光時間により撮像された画像では、撮像物体の露光は不正確であると理解されるべきである。例えば、暗い光のシーンで画像撮像が行われる場合、第1露光時間が比較的短いと画像効果は不十分であり、撮像物体の画像は十分に鮮明ではない。したがって、撮像物体に対応した鮮明な画像を取得するために、画像撮像は、現在のシーンの輝度に基づいて、露光モードにより再び行われる。
詳細には、撮像シーンの輝度が検出される。例えば、現在の撮像シーンの輝度が、端末装置の輝度センサにより検出される。第2露光時間が、輝度とプリセット閾値により決定され、そして第2主画像が第2露光時間により撮像される。
カメラの光感度の限界により、比較的低い光感度のシーンにおいて、物体の高い解像度の画像がカメラによって撮像することが出来ないというケースをさけるため、プリセット閾値は、現在の撮像シーンの輝度が低いかどうかを決定するために用いられる。プリセット閾値は、カメラの光感度と関連づけられる。端末装置の光感度が高くなると、プリセット閾値も高くなる。
詳細には、本開示の実施形態では、比較により、撮像シーンの輝度がプリセット閾値よりも低いと決定された場合、第2露光時間はプリセットアルゴリズムと輝度により決定される。ここで、第2露光時間は第1露光時間よりも長い。言い換えると、現在の撮像シーンの輝度が低いと習得された場合、プリセットアルゴリズムと輝度を用いて、比較的長い第2露光時間が決定されて、そのため、光の総量が増加することにより画像効果が向上される。
本実施形態では、プリセットアルゴリズムは膨大な量の実験データに基づき、前もって設定されてもよく、シーンの輝度と第2露光時間の間の関係に対応する数学公式をも含んでいてもよい。少なくとも1つの代替例では、プリセットアルゴリズムは、膨大な実験データによる、ディープラーニングモデルセットでもよい。ディープラーニングモデルのインプットは、現在のシーンの輝度であり、そのアウトプットは、第2露光時間である。少なくとも1つの他の例では、プリセットアルゴリズムは、現在のシーンの輝度と第2露光時間との間の対応を含むリストでもよく、これにより、現在のシーンの輝度を取得したのちに、輝度に応じた第2露光時間が、リスト内の対応関係が検索され、取得されてもよい。
本開示の別の実施形態では、比較により、現在のシーンの輝度がプリセット閾値よりも大きい又は同じと決定された場合、現在のシーンの輝度が、カメラの鮮明な画像の撮像が実行される領域の範囲内にあることを示している。この場合、ノーマル撮像モードが開始されてもよく、ノーマル撮像モードに対応したプリセット露光時間が、直接的に第2露光時間として用いられてもよい。
ブロック102では、第1画像の第1前景領域と第1後景領域が決定され、第2画像の第2前景領域が決定される。
詳細には、種々のアプリケーションシナリオにより、領域情報の深度に基づいて、第1画像の第1前景領域と第1後景領域を決定する種々の方法がある。いくつかの例を、以下に記述する。
第1例
画像撮像と関連づけられたパラメータを取得して、撮像のためのカメラに関連づけられた領域公式の深度に基づいて、目標領域の焦点領域の外側の画像領域における、領域情報の深度を計算してもよい。
例えば、許容錯乱円径、絞り値、焦点距離、合焦距離、及び、撮像カメラのその他のパラメータが取得されてもよい。第1前景領域の領域の深度は、以下の公式により、算出されてもよい。第1前景領域の領域情報の深度=(絞り値×許容錯乱円径×焦点距離の二乗)/(焦点距離の二乗+絞り値×許容錯乱円径×合焦距離)、算出された第1前景領域の領域の深度に基づいて、第1画像から第1前景領域を切り離す。第1画像の第1後景領域の領域情報の深度は、次の公式により、算出されてもよい。第1後景領域の領域情報の深度=(絞り値×許容錯乱円径×焦点距離の二乗)/(焦点距離の二乗-絞り値×許容錯乱円径×合焦距離)。そして、第1画像の第1後景領域は算出された第1後景領域の領域情報の深度により、決定されてもよい。
第2例
焦点領域の外側の画像領域の領域マップの深度は、第1画像の領域データ情報の深度により決定され、デュアルカメラを用いて取得される。焦点領域の前の第1前景領域と焦点領域の後の第1後景領域は、領域マップの深度により、決定される。
詳細には、例えば、2つのカメラの位置が異なり、このため、撮像される目標物体に対する2つのリアカメラの間における、特定の角度差と距離差とが存在する。したがって、2つのカメラを用いて取得されたプレビュー画像データの間における特定の位相差もまた存在する。少なくとも1つの例において、カメラは端末装置においては2つのリアカメラでもよい。
例えば、撮像目標物体の点Aについて、カメラ1のプレビュー画像データにおいて、点Aに対応するピクセル座標が(30,50)であり、カメラ2のプレビュー画像データにおいて、点Aに対応するピクセル座標が(30,48)である。プレビュー画像データの2つのピースにおける、点Aに対応する画素の位相差は、50-48=2である。
この例において、領域情報の深度と位相差の間の対応は、実験データ、又は、カメラパラメータにより、あらかじめ確立されてもよい。したがって、第1画像における画素の領域情報の深度は、2つのカメラを用いて取得された、プレビュー画像データにおける、合成画像における、それぞれの画素の位相差により、探索されてもよい。
例えば、点Aに対応する2の位相差について、プリセット対応関係に基づいて、対応する領域の深度が5メートルであると決定されると、目標領域における点Aに対応する領域情報の深度は5メートルである。したがって、第1画像におけるそれぞれの画素の領域情報の深度が取得されてもよく、すなわち、焦点領域の外側の画像領域の領域マップの深度が取得されてもよい。
焦点領域の外側の画像領域の領域マップの深度が取得されたのち、焦点領域の前の画像領域の第1前景領域の領域情報の深度、及び、焦点領域の後の第1後景領域の領域情報の深度が、さらに決定されてもよい。
本開示の実施形態において、第1画像の第1前景領域と第1後景領域が領域情報の深度に基づき決定されたのち、第1前景領域と第1後景領域は、第1前景領域などに対しての処理を促進するためにさらにマークをされてもよいことに注意されたい。例えば、第1前景領域はfore_gtとマークされ、第1後景領域はback_gtとマークされる。
ブロック103において、画像フュージョン処理が第2前景領域と第1前景領域に実行され、第3前景領域が生成される。
ブロック104において、ぼかし処理が第1後景領域に実行され、第3前景領域とぼかし処理が施された第1後景領域が合成され、目標画像が生成される。
詳細には、上記の分析に基づき、現在のシーンの輝度による、露光を通じて取得された第2主画像における前景領域の画像は比較的鮮明である。この場合、第2主画像の第2前景領域は、第1前景領域の座標情報により取得され、高いダイナミックレンジ画像の第3前景領域は、第2前景領域と第1前景領域に画像フュージョン処理を実行することによって生成されてもよい。
本開示の少なくとも1つ例において、第2画像fore_gt2の座標位置が、第1画像においてマークされた第1前景領域fore_gtの座標情報に基づき、マークされたとき、画像フュージョンが、fore_gtとfore_gt2の画像に対して、ハイダイナミックレンジ画像計算の方法によって実行され、そして第3前景領域画像が取得される。この場合、取得された第3前景領域画像が高いダイナミックレンジ画像である。
本開示において、鮮明な前景領域を持つ画像は、第2露光時間により撮像された第2画像のみによって取得される。デュアルカメラのうちただ1つ、たとえばプライマリカメラが第2露光の間に起動され、すなわち、第2画像がプライマリカメラを用いて第2露光時間により撮像される。このようにして、電力の消費が縮小される。加えて、プライマリカメラが光学式手ぶれ補正レンズであるとき、すなわち、第2画像がOIS光学式手ぶれ補正レンズを用いて第2露光時間により撮像されたとき、画素調整は第1画像と第2画像の画像フュージョンの間さらに正確になり、高いダイナミックレンジ画像の前景領域の画像効果が良好となり、画像は鮮やかな細部を持つようになる。
さらに、ぼかし処理が領域情報の深度に基づき後景領域に実施され、高いダイナミックレンジ画像の第3前景領域とぼかし処理が施された第1後景領域が合成され、目標画像が生成される。目標画像はハイライトされた前景領域と、より良い視覚効果を持つ。
ここで、ぼかし処理は第1後景領域に実行される必要があるため、画像フュージョン処理は2回の露光と第2画像の前景領域が取得されたのちに、単に第1画像に実行されると理解するべきである。この場合、計算量は、全第1画像と全第2画像のフュージョンと比較して、顕著に縮小されている。2回の露光の後に取得された第2画像は、比較的高い品質を有することから、後に第2画像がぼかされた場合、前景領域の撮像物体はハイライトされもよい。加えて、後景領域のフュージョンからの新たなノイズを避けるように、ぼかし処理が、第1露光の後に取得された後景領域の画像に基づいて、直接的に実行される。
さらに、種々のアプリケーションシナリオにより、ぼかし処理は、複数の異なった実施態様において、領域情報の深度に基づいて後景領域に実行され得ることに留意されたい。いくつかの例を、以下に記述する。
第1例
図6で描かれるように、ブロック104の動作はブロック201とブロック202の動作を含んでいる。
ブロック201では、第1後景領域における異なった領域のぼかしの程度は、領域情報の深度により決定される。
主画像と従画像の画素により取得された領域情報の深度が正確でないことを避けるために、第1後景領域は、決定したぼかし程度により別々の領域に分割されると理解されるべきである。ここで、主画像と従画像は、比較的短い第1露光時間により決定される。本実施形態において、異なった領域のぼかしの程度を決定するために、それぞれの領域の領域情報の深度は、第1後景領域の異なった領域における多画素の領域情報の深度の分布確率により、決定されてもよい。
202において、ガウシアンぼかし処理は、ぼかしの程度により、第1後景領域の異なった領域に実行される。
詳細には、第1後景領域の異なった領域のぼかしの程度は、領域情報の深度に基づき決定され、ガウシアンぼかし処置は、ぼかしの程度に基づき、第1後景領域の異なった領域に実行され、この様に領域情報の深度は大きくなってゆく。領域情報の深度が大きくなるにしたがって、漸近的ぼかしが達成されるように、ぼかしの程度は高くなる。
第2例
領域深度の情報により、第1後景領域が決定された後、第1後景領域のシーン情報が複雑な場合、例えば、特定の値を超える大きな画素数又は色成分がある場合、後景領域の置換が、第1後景領域において撮像物体をハイライトするために、実行されてもよい。複雑なシーン情報を含む第1後景領域は、ブランク後景領域と置き換えるような、プリセットシーン情報を含む後景領域に置き換えられてもよい。図7の左の画像に描かれているように、人Aが撮像されたとき、もし画像の後景領域が複雑であると、図7の右の画像に描かれているように、ぼかし処理が後景領域に実行され、これにより、目標画像の処理において、人Aがハイライトされるのみならず、後景領域が過度に複雑にならず、ユーザの視覚経験に影響を及ぼす。
したがって、本開示の実施形態の画像処理方法によれば、ダブル露光モードが採用され、深度画像は第1短縮露光を用いて前景領域と後景領域をセグメントして取得してもよく、第2露光時間は、シーン認識を通じて制御され、第2露光時間においてはシングルレンズが用いられ、HDRフュージョンは、暗い環境において、物体をハイライトするため、ノイズを縮小するため、及び、画像の鮮明度を高めるために、第2露光におけるセグメンテーションを通じて取得された前景領域と、第1露光におけるセグメンテーションを通じて取得された前景領域に対して実行される。加えて、第1露光を用いて取得された後景領域における処理については、後景領域のぼかしのみが第1フレーム画像に実行され、それによって、計算量が減少し、リアルタイムパフォーマンスが向上する。高いダイナミックレンジ画像は、多露光を取得することなく、2つの露光を通じてのみ取得されてもよく、そして合成が実行される。したがって、高いダイナミックレンジ画像の生成効率が向上される。
結論として、本開示の実施形態における画像処理方法によれば、第1カメラを用いてプリセット第1露光時間により、第1主画像が撮像され、そして同時に、第2カメラを用いて第1露光時間により、従画像が取得される。領域情報の深度は、第1主画像と従画像により、取得され、第1主画像と従画像が合成されて第1画像が取得される。第1画像の第1前景領域と第1後景領域は、領域情報の深度に基づき、決定される。撮像シーンの輝度が検出され、第2露光時間が輝度とプリセット閾値により決定され、第2画像は第2露光時間により撮像される。第2画像の第2前景領域は、第1前景領域の座標情報により取得され、画像フュージョン処理は、高いダイナミックレンジ画像の第3前景領域を生成するために、第2前景領域と第1前景領域に実行される。ぼかし処理は、領域情報の深度により第1後景領域に実行され、第3前景領域とぼかし処理が施された第1後景領域が合成されることにより、目標画像が生成される。したがって、高いダイナミックレンジ画像の生成効率と視覚効果が向上される。
前記の実施形態を実現するため、本開示はさらに端末装置に適応される、画像処理装置を提供する。図8は、本開示の実施形態による、画像処理装置の概略構造図である。図8で描かれているように、画像処理装置は、撮像モジュール100、決定モジュール200、生成モジュール300、及び、処理モジュール400を含む。
撮像モジュール100は、デュアルカメラを用いて、プリセット第1露光時間により第1画像を、第2露光時間により第2画像を、撮像するように構成されてもよい。第2露光時間は、撮像シーンの輝度とプリセット閾値により決定される。
決定モジュール200は、第1画像の第1前景領域と第1後景領域を決定し、第2画像の第2前景領域を決定するように構成されてもよい。
生成モジュール300は、第3前景領域を生成するために、第2前景領域と第1前景領域に画像フュージョン処理を実行するように構成されてもよい。
例えば、第3前景領域は、高ダイナミックレンジ画像計算の方法によって、第2前景領域と第1前景領域に画像フュージョンを実行することにより生成された、高いダイナミックレンジ画像の前景領域でもよい。
処理モジュール400は、後景領域にぼかし処理を実行するように構成されてもよく、第3前景領域と、ぼかし処理が施された第1後景領域とを合成し、目標画像を生成するように構成されてもよい。
本開示の少なくとも1つの実施形態において、撮像モジュール100は、特に、プリセット撮像シーンの輝度を検出するように構成されてもよい。
本開示の少なくとも1つの実施形態において、撮像モジュール100は、特に、輝度がプリセット閾値よりも小さいという比較の結果に基づき、プリセットアルゴリズムと輝度により、第2露光時間を決定するように構成されてもよい。例えば、第2露光時間は、第1露光時間よりも長い。
本開示の少なくとも1つの実施形態において、撮像モジュール100は、特に、輝度がプリセット閾値よりも大きい、または、同じという比較の結果に基づき、ノーマル撮像モードを開始させ、ノーマル撮像モードの第2露光時間に対応するプリセット露光を用いるように構成されてもよい。
本開示の少なくとも1つ実施形態において、デュアルカメラは第1カメラと第2カメラとを含んでおり、撮像モジュール100は、特に、第1カメラを用いて、第1露光時間により第1主画像を撮像し、同時に、第2カメラを用いて、第1露光時間により従画像を撮像するように構成されてもよい。画像処理装置は、さらにモジュールを取得してもよく、第1主画像と従画像に基づき、領域情報の深度を取得し、第1主画像と従画像とを合成することにより、第1画像を取得するように構成されてもよい。
ここで、方法の実施形態の前記の記述は、本開示の実施形態における装置に適応できることに注意されたい。それらの実行態様の原理は類似しており、詳細はここでは繰り返さない。
前記の画像処理装置におけるモジュールの分割は、図解のためだけに用いられている。本開示の他の実施形態において、画像処理装置は、要求に応じて異なったモジュールに分割されてもよく、前記の画像処理装置の全て、または、いくつかの機能を完結する。
結論として、本開示における実施形態の画像処置装置により、第1主画像は、第1カメラを用いてプリセット第1露光時間により撮像され、そして同時に、従画像は、第2カメラを用いて第1露光時間により撮像される。領域情報の深度は、第1主画像と従画像により取得され、第1主画像と従画像が合成されることにより第1画像を取得する。第1画像の第1前景領域と第1後景領域は、領域情報の深度に基づき、決定される。撮像シーンの輝度が検出され、第2露光時間は、輝度とプリセット閾値により決定され、第2画像は、第2露光時間により撮像される。第2画像の第2前景領域は、第1前景領域の座標情報により取得され、画像フュージョン処理は、第3前景領域を生成するために、第2前景領域と第1前景領域に実行される。ぼかし処理は、領域情報の深度により、第1後景領域に実行され、第3前景領域と、ぼかし処理が施された第1後景領域とを合成することにより目標画像が生成される。したがって、高いダイナミックレンジ画像の生成効率と視覚効果が向上される。
上述した実施形態の実現のため、本開示はさらに、本開示の上記実施形態における端末装置などの、コンピュータデバイスを提供する。コンピュータデバイスは、コンピュータプログラムを格納するメモリと、コンピュータプログラムを実行するプロセッサとを含むような、任意のデバイスでよい。例えば、コンピュータデバイスは、スマートフォン、パーソナルコンピュータなどでよい。コンピュータデバイスは、さらに、画像処理回路を含んでいる。画像処理回路は、ハードウェア構成機器、及び/又は、ソフトウェア構成機器によって実現されてもよく、ISP(Image Signal Processing)パイプラインによって定義された、種々の処理ユニットを含んでもよい。図9は、本開示の実施形態による、画像処理回路の概略図である。図9で描かれているように、記述を容易のため、本開示の実施形態に関連する画像処理の観点のみが、描かれている。
図9で描かれているように、画像処理回路は、ISPプロセッサ1040と、制御論理デバイス1050を含んでいる。第1に、画像デバイス1010によって撮像された画像データが、ISPプロセッサ1040によって処理され、ISPプロセッサ1040は、画像デバイス1010の1又は複数の制御パラメータを決定するために用いられる画像統計情報を取り込むために、画像データを解析する。画像デバイス1010(カメラ)は、1又は複数のレンズ1020と、画像センサ1014を含んでいてもよい。本開示における後景領域のぼかし処理の実行のために、画像デバイス1010は2つのカメラを含んでいる。これまで参照している図8では、画像デバイス1010は、プライマリカメラとセカンダリカメラを通じて、同時にシーン画像を撮像し、画像センサ1014は、カラーフィルターアレイ(例えば、ベイヤーフィルター)を含んでもよい。画像センサ1014は、画像センサ1014のそれぞれの画像の画素により取り込んだ、光の強度と波長情報を取得してもよく、ISPプロセッサ1040により処理された、オリジナル画像データのセットを供給してもよい。センサ1020は、センサ1020のインタフェースタイプに基づき、ISPプロセッサ1040にオリジナル画像データを供給してもよい。ISPプロセッサ1040は、プライマリカメラにおける画像センサ1014によって取得されるオリジナル画像データと、セカンダリカメラにおける画像センサ1014によって取得されるオリジナル画像データに基づき、領域情報の深度を算出してもよく、オリジナル画像データは、いずれもセンサ1020により供給される。センサ1020のインタフェースは、SMIA(Standard Mobile Imaging Architecture)インタフェース、別のシリアル、若しくはパラレルカメラインタフェース、または、前記のインタフェースの組み合わせでもよい。
ISPプロセッサ1040は、複数のフォーマットにおいて、オリジナル画像データにおける、ピクセル毎に処理を実行してもよい。例えば、それぞれの画像ピクセルは、8、10、12、または、14ビットのビット深度を有してもよく、ISPプロセッサ1040は、1または複数の画像処理動作をオリジナル画像データに実行してもよく、画像データに関する統計情報を収集してもよい。画像処理動作は、同じ、または、異なったビット深度精度により実行されてもよい。
ISPプロセッサ1040は、さらに、画像メモリ1030から画素データを受信してもよい。例えば、オリジナル画像データは、センサ1020のインタフェースから、画像メモリ1030に送られてもよく、そして画像メモリ1030におけるオリジナル画像データは、ISPプロセッサ1040に、処理のために提供される。画像メモリ1030は、メモリデバイス、ストレージデバイス、または、電子デバイスにおける切り離した専用のメモリの一部であってよく、DMA(Direct Memory Access、direct memory access)の機構を含んでもよい。
センサ1020のインタフェース、または、画像メモリ1030から、オリジナル画像データを受信したとき、ISPプロセッサ1040は、たとえばタイムドメインフィルタリングなどの1または複数の画像処理操作を実行してもよい。処理された画像データは、画像メモリ1030に、表示される前の、追加の処理のため送信される。ISPプロセッサ1040は、画像メモリ1030から処理されたデータを受信し、オリジナルドメイン及びRGBとYCbCrの色空間における処理をされたデータに、画像データ処理を実行する。処理された画像データは、ユーザによる視聴のため、ディスプレイ1070にアウトプットされてもよく、及び/又は、グラフィックエンジン若しくはGPU(Graphics Processing Unit)による、さらなる処理が実行されてもよい。加えて、ISPプロセッサ1040のアウトプットは、画像メモリ1030にもまた送信されてもよく、ディスプレイ1070は、画像メモリ1030から画像データを読み込んでもよい。実施形態において、画像メモリ1030は、1または複数のフレームバッファを実行するように構成されてもよい。加えて、ISPプロセッサ1040のアウトプットは、符号器/復号器1060に、画像データの符号化/復号化のため、送信されてもよい。符号化された画像データは、ディスプレイ1070上に表示される前に、格納及び圧縮解除されてもよい。符号器/復号器1060は、CPU、GPU、または、コプロセッサにより、実現されてもよい。
ISPプロセッサ1040により決定された統計データは、制御論理デバイス1050に送信されてもよい。例えば、統計データは画像センサ1014の統計情報を含んでいてもよく、自動露光の統計情報、自動ホワイトバランス、自動フォーカシング、明滅検出、ブラックレベル補正、及び、レンズ1012の遮光補正などである。制御論理デバイス1050は、1または複数のルーチン(例えば、ファームウェア)を実行するプロセッサ、及び/又は、マイクロコントローラを含んでいてもよい。1または複数のルーチンは、画像デバイス1010の制御パラメータと、受信した統計データによる他のエレメントの制御パラメータを決定するために用いてもよい。例えば、制御パラメータは、センサ1020の制御パラメータ(例えば、露光制御のゲイン及び積分時間)、カメラのフラッシュ制御パラメータ、レンズ1012の制御パラメータ(例えば、合焦またはズーミングのための焦点距離)、または、それらのパラメータの組み合わせを含んでいてもよい。ISP制御パラメータは、ゲインレベル、及び自動ホワイトバランスと色調整(例えば、RGB処理の間)に用いられる色補正マトリックス、及び、レンズ1012の遮光補正パラメータを、含んでもよい。
以下で、図9において画像処理回路を用いた、画像処理方法が実行された動作について提供する。
デュアルカメラを用いて、第1画像は、プリセット第1露光時間に基づき撮像され、第2画像は、第2露光時間により撮像され、ここで第2露光時間は、撮像シーンの輝度と、プリセット閾値により、決定される。
第1画像の、第1前景領域と第1後景領域が決定されてもよく、第2画像の第2前景領域が決定されてもよい。
画像フュージョン処理は、第3前景領域を生成するため、第2前景領域と第1前景領域に実行されてもよい。
ぼかし処理は、第1後景領域に実行されてもよく、第3前景領域とぼかし処理が施された第1後景領域とを合成することにより目標画像を生成してもよい。
上述した実施形態の実現のため、本開示はさらに、非一時的なコンピュータ可読記憶媒体を提供する。記憶媒体における指令は、プロセッサにより実行されたとき、プロセッサに、本開示の上述した実施形態における画像処理方法を実現させてもよい。
明細書の記述において、「1つの実施形態」、「いくつかの実施形態」、「1つの例」、「特定の例」、「いくつかの例」、などの用語は、実施形態または例の参考と記述された、特定の性質、構造、原料、または、特徴を意味し、本開示の実施形態または例を、少なくとも1つ包含する。明細書において、前記の用語は、同じ実施形態または例について概略的に表現されるものではない。記述された、特定の性質、構造、原料、または、特徴は、任意の1つまたは複数の実施形態または例は、適切な方法にて組み合わされることができる。加えて、本開示の明細書において記述された、異なる実施形態または例を、異なる実施形態または例の特徴と結合されてもよく、当業者ならば矛盾なく結合しえよう。
加えて、「第1」及び「第2」という用語は、記述の目的ためだけに用いられているにすぎず、相対的な重要性を指す若しくは暗示する、又は技術的特徴の数を暗示するものと理解してはならない。したがって、「第1」及び「第2」により定義された特徴は、少なくとも1つの特徴を、明示的または暗示的に包含し得る。本明細書における「複数」という用語は、明確にかつ具体的に限定されない限り、少なくとも2つを意味し、例えば、2つ、3つなどである。
フローチャートの記述または別の方法で明細書に記載された任意のプロセス若しくは方法は、1または複数の、カスタム論理機能または処理動作の実行のために、実行可能な指令、及び、本開示が包含する他の実施形態の好ましい実施形態を包含する、モジュール、フラグメント、コードの一部の説明と、理解することができる。機能は、示されたまたは議論した順番で実行されないことがありえ、実質的に同時の方法、または機能に基づき、逆順の方法も包含している。これは、本開示の実施形態の当業者によれば、理解され得るべきである。
フローチャート、または別の方法で明細書に記載された論理、及び/または、動作は、論理機能の実行のための実行可能指令のシーケンステーブルとして考慮されてもよく、指令実行システム、装置、または、デバイス(例えば、コンピュータベースのシステム、プロセッサを含むシステム、または、指令実行システムや装置若しくはデバイスから指令を取得し、その指令を実行し得るその他のシステム)が使用されるための指令実行システム、装置、またはデバイスとの組み合わせで使用するために、特に、任意のコンピュータ可読媒体において実行されてもよい。この明細書において、「コンピュータ可読媒体」は、指令実行システム、装置若しくはデバイスにより使用するための、または、指令実行システム、装置若しくはデバイスの組み合わせにより使用するためのプログラムを、包含し、格納し、通信し、伝搬し、伝達することができる、任意の装置でよい。コンピュータ可読媒体のさらなる具体的な例(非網羅的リスト)には、1つまたは複数の配線を備える電子接続部分(電子機器)、ポータブルコンピュータディスクボックス(磁気デバイス)、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラム可能読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ装置、及び、ポータブルコンパクトディスク読み取り専用メモリ(CDROM)が含まれる。加えて、コンピュータ可読媒体は、紙やプログラムがプリントされ得る別の媒体でもよく、なぜならば、例えば、紙やその他の媒体は、光学的にスキャンされ、そして、編集及び解釈され、または、必要に応じて、コンピュータメモリに格納するための電子的なプログラムを取得するために、任意の適切な方法で処理が実行され得るからである。
本開示の各部分は、ハードウェア、ソフトウェア、ファームウェア、または、それらの組み合わせであると理解されるべきである。前記の実施形態では、複数の動作または方法は、ソフトウェアまたはファームウェアによって実行されてもよく、それらはメモリに格納され、それらは適切な指令実行システムによって実行される。例えば、もしハードウェアが、同じ実施形態を別の実施形態として実行するために用いられるとすると、以下のこの技術分野の周知技術の1つまたは組み合わせが用いられる。データ信号における論理機能の実行のための論理ゲート回路を包含するディスクリート論理回路、適切な結合論理ゲート回路を包含する専用集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)などである。
当業者は、本実施形態の方法の動作の全てまたは一部が、プログラムにより、指令された関連ハードウェアにより、完了され得ることを理解し得るだろう。プログラムは、コンピュータ可読媒体に格納されてもよい。プログラムが実行されるとき、プログラムは、動作の1つ、又は、本実施形態の動作の組み合わせを実現するために用いられる。
加えて、本開示の各実施形態における各機能ユニットは、処理モジュールに統合されてもよく、各モジュールは物理的に独立して存在してもよく、2または2以上のモジュールが1つのモジュールに統合されてもよい。統合モジュールは、ハードウェア形態で実現されてもよく、ソフトウェア機能ユニット形態でも実現されてもよい。ソフトウェア機能モジュールの形態で実現され、販売または独立した製品として使用されるとき、統合モジュールは、コンピュータ可読メモリに格納されてもよい。
記憶媒体は、上記では読取り専用メモリ、磁気ディスク、光学ディスクなどでよい。上記に、本開示の実施形態は図示または記述されているが、前記の実施形態は例示であり、本開示の制限と理解するべきではない。当業者であれば、本開示の範囲内において、上記の実施形態の、様々な変形、改変、置換、または、変換を行うことができる。

Claims (13)

  1. 端末装置に適応される画像処理方法であって、
    デュアルカメラを用いて、プリセットされた第1露光時間に基づく第1画像と第2露光時間に基づく第2画像を撮像し、ここで第2露光時間は撮像シーンとプリセットされた閾値の明るさに基づいて決定され(101)、
    前記第1画像の第1前景領域と第1後景領域を決定し、前記第2画像の第2前景領域を決定し(102)、
    前記第2前景領域と前記第1前景領域について画像フュージョン処理を実行(103)することにより、第3前景領域を生成し、
    前記第1後景領域についてぼかし処理を実行し、前記第3前景領域と前記ぼかし処理がなされた前記第1後景領域とも合成して、目標画像を生成する(104)、
    ことを備える画像処理方法。
  2. 前記第1画像の前記第1前景領域と第2前景領域を決定することは(102)、
    撮像パラメータと領域深度公式に基づき、前記第1前景領域の領域情報の深度と前記第1後景領域の領域情報の深度を計算し、
    前記第1前景領域の領域情報の深度に基づき、前記第1画像から前記第1前景領域を切り離し、
    前記第1後景領域の領域情報の深度に基づき、合成画像の第1後景領域を決定する、
    ことを備える請求項1記載の方法。
  3. 前記第1画像の前記第1前景領域と前記第1後景領域を決定することは(102)、
    前記カメラによって得られたプレビュー画像データを用いることによって、前記第1画像におけるそれぞれの画素の位相差を算出し、
    領域情報の深度と位相差との間の所定の対応関係と、算出されたそれぞれの画素の位相差とに基づき、それぞれの画素の領域情報の深度を取得して、前記第1画像の領域マップの深度を生成し、
    前記領域マップの深度に基づき、第1前景領域の領域情報の深度と、第1後景領域の領域情報の深度を決定し、
    前記第1前景領域の領域情報の深度に基づき、前記第1画像から前記第1前景領域を切り離し、
    前記第1後景領域の領域情報の深度に基づき、前記第1画像から前記第1後景領域を決定する、
    ことを備える請求項1記載の方法。
  4. 輝度がプリセット閾値より低いという比較の結果に応じて、プリセット・アルゴリズムと輝度に基づき、第2露光時間が決定され、ここで第2露光時間は第1露光時間より長い、
    請求項1乃至3のいずれかに記載の方法。
  5. 輝度がプリセット閾値より大きく又は同じという比較の結果に応じて、ノーマル撮像モードが開始され、第2露光時間がノーマル撮像モードに対応するプリセット露光時間として決定される、
    請求項1乃至3のいずれかに記載の方法。
  6. 前記第2画像の第2前景領域を決定することは(102)、
    第1前景領域の座標情報に基づき、第2前景領域を取得する、
    ことを備える請求項1乃至5のいずれかに記載の方法。
  7. 前記デュアルカメラは第1カメラと第2カメラを備えており、前記デュアルカメラを用いて第1露光時間に基づき、前記第1画像の撮像する動作は(101)、
    前記第1カメラを用いて第1露光時間に基づき、第1主画像を撮像し、同時に前記第2カメラを用いて第1露光時間に基づき、従画像を撮像し、
    前記第1主画像と前記従画像を合成することにより前記第1画像を取得する、
    ことを備える請求項1乃至5のいずれかに記載の方法。
  8. 第2露光時間により前記第2画像を撮像することは(101)、
    前記デュアルカメラの1つを用いて、前記第2露光時間に基づき第2主画像を撮像する、
    ことを備える請求項1乃至5のいずれかに記載の方法。
  9. 前記第1後景領域のぼかし処理を実行することは(104)、
    前記第1画像の領域情報の深度を取得し、
    前記領域情報の深度に基づき、前記第1後景領域の異なる領域のぼかしの度合いを決定し、
    前記ぼかしの度合いに基づき、前記第1後景領域の前記異なる領域にガウシアンぼかしを実行する、
    ことを備える請求項1記載の方法。
  10. 前記第1後景領域の前記ぼかし処理を実行することは(104)、
    前記第1後景領域のシーン情報がプリセット条件を満たすかどうかを決定し、
    前記第1後景領域のシーン情報が前記プリセット条件を満たすという決定に応じて、前記第1前景領域を後景領域で置き換えるプリセットシーン情報を含む、
    ことを備える請求項1記載の方法。
  11. 前記プリセット条件は、
    前記第1後景領域の画素数が第1閾値を超える、または、
    前記第1後景領域の色成分が第2閾値を超える、
    ことの少なくとも1つ
    を備える請求項10記載の方法。
  12. 端末装置に適応される画像処理装置であって、
    1又は複数のコンピュータプログラムを格納するメモリと、
    前記メモリに格納された前記1又は複数のコンピュータプログラムを実行するプロセッサであって、請求項1乃至11のいずれかに記載の画像処理方法を実行可能なプロセッサと、
    を備える画像処理装置。
  13. コンピュータ可読記憶媒体であって、プロセッサにより実行されたときに、前記プロセッサに請求項1乃至11のいずれかに記載の画像処理方法を実現させるコンピュータプログラムが格納された、コンピュータ可読記憶媒体。
JP2020517976A 2017-11-30 2018-10-24 画像処理方法、装置、及び、デバイス Active JP7003238B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711243724.9A CN107948519B (zh) 2017-11-30 2017-11-30 图像处理方法、装置及设备
CN201711243724.9 2017-11-30
PCT/CN2018/111600 WO2019105154A1 (en) 2017-11-30 2018-10-24 Image processing method, apparatus and device

Publications (2)

Publication Number Publication Date
JP2020535758A JP2020535758A (ja) 2020-12-03
JP7003238B2 true JP7003238B2 (ja) 2022-01-20

Family

ID=61947121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020517976A Active JP7003238B2 (ja) 2017-11-30 2018-10-24 画像処理方法、装置、及び、デバイス

Country Status (6)

Country Link
US (1) US10997696B2 (ja)
EP (1) EP3496383A1 (ja)
JP (1) JP7003238B2 (ja)
KR (1) KR102278776B1 (ja)
CN (1) CN107948519B (ja)
WO (1) WO2019105154A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN107948519B (zh) * 2017-11-30 2020-03-27 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN110458860A (zh) * 2018-05-08 2019-11-15 华晶科技股份有限公司 图像处理方法及图像处理装置
CN108833832B (zh) * 2018-06-20 2021-03-02 王学军 一种眼镜摄录仪及摄录方法
TWI684165B (zh) * 2018-07-02 2020-02-01 華晶科技股份有限公司 影像處理方法與電子裝置
CN108881730A (zh) * 2018-08-06 2018-11-23 成都西纬科技有限公司 图像融合方法、装置、电子设备及计算机可读存储介质
CN108718388B (zh) * 2018-08-29 2020-02-11 维沃移动通信有限公司 一种拍照方法及移动终端
CN109360163A (zh) * 2018-09-26 2019-02-19 深圳积木易搭科技技术有限公司 一种高动态范围图像的融合方法及融合系统
CN109816663B (zh) * 2018-10-15 2021-04-20 华为技术有限公司 一种图像处理方法、装置与设备
CN109447929B (zh) * 2018-10-18 2020-12-04 北京小米移动软件有限公司 图像合成方法及装置
CN109194876B (zh) * 2018-10-31 2020-11-13 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN111311482B (zh) * 2018-12-12 2023-04-07 Tcl科技集团股份有限公司 背景虚化方法、装置、终端设备及存储介质
JP2020167518A (ja) * 2019-03-29 2020-10-08 ソニー株式会社 画像処理装置と画像処理方法およびプログラムと撮像装置
JP2020167517A (ja) * 2019-03-29 2020-10-08 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび撮像装置
CN110120045B (zh) * 2019-06-14 2023-05-12 晓智未来(成都)科技有限公司 一种基于回归模型的x光成像曝光参数确定方法
CN110231018B (zh) * 2019-04-30 2021-02-26 奥比中光科技集团股份有限公司 一种结构光测距方法、装置及计算机可读存储介质
CN110177212B (zh) * 2019-06-26 2021-01-26 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN110266960B (zh) * 2019-07-19 2021-03-26 Oppo广东移动通信有限公司 预览画面处理方法、处理装置、摄像装置及可读存储介质
CN110493538B (zh) * 2019-08-16 2021-08-24 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN112461154B (zh) * 2019-09-09 2023-11-10 睿镞科技(北京)有限责任公司 3d成像方法、装置和深度相机
CN110650291B (zh) * 2019-10-23 2021-06-08 Oppo广东移动通信有限公司 目标追焦方法和装置、电子设备、计算机可读存储介质
CN110992239B (zh) * 2019-11-14 2023-03-24 中国航空工业集团公司洛阳电光设备研究所 一种基于单片ddr3芯片的图像时域滤波与显示的方法
CN112991242A (zh) * 2019-12-13 2021-06-18 RealMe重庆移动通信有限公司 图像处理方法、图像处理装置、存储介质与终端设备
CN111369469B (zh) * 2020-03-10 2024-01-12 北京爱笔科技有限公司 图像处理方法、装置及电子设备
CN111416936B (zh) * 2020-03-24 2021-09-17 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质
CN111489323B (zh) * 2020-04-09 2023-09-19 中国科学技术大学先进技术研究院 双光场图像融合方法、装置、设备及可读存储介质
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium
CN113572980B (zh) * 2020-04-28 2022-10-11 华为技术有限公司 拍照方法、装置、终端设备及存储介质
CN113810590A (zh) * 2020-06-12 2021-12-17 华为技术有限公司 图像处理方法、电子设备、介质和系统
CN111835982B (zh) * 2020-07-02 2021-08-17 维沃移动通信有限公司 图像获取方法、图像获取装置、电子设备及存储介质
KR20220005820A (ko) * 2020-07-07 2022-01-14 삼성전자주식회사 그래픽 효과를 적용하기 위한 전자 장치 및 그에 관한 방법
CN111770285B (zh) * 2020-07-13 2022-02-18 浙江大华技术股份有限公司 一种曝光亮度控制方法、装置、电子设备和存储介质
CN112085686A (zh) * 2020-08-21 2020-12-15 北京迈格威科技有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN114143442B (zh) * 2020-09-03 2023-08-01 武汉Tcl集团工业研究院有限公司 图像虚化方法、计算机设备、计算机可读存储介质
CN112241953B (zh) * 2020-10-22 2023-07-21 江苏美克医学技术有限公司 基于多聚焦图像融合和hdr算法的样本图像融合方法及装置
CN112291471B (zh) * 2020-10-28 2022-06-10 维沃移动通信有限公司 拍摄控制方法、拍摄控制装置、电子设备和可读存储介质
CN112543286A (zh) * 2020-11-27 2021-03-23 展讯通信(上海)有限公司 一种用于终端的图像生成方法及装置、存储介质、终端
JP2022088785A (ja) * 2020-12-03 2022-06-15 セイコーエプソン株式会社 特定方法、投写方法、特定システム、情報処理装置、及びプログラム
CN112446910A (zh) * 2020-12-11 2021-03-05 杭州海康机器人技术有限公司 一种深度图像获得方法、装置、电子设备及存储介质
CN112954198B (zh) * 2021-01-27 2022-11-15 北京有竹居网络技术有限公司 图像处理方法、装置和电子设备
CN112995537B (zh) * 2021-02-09 2023-02-24 成都视海芯图微电子有限公司 一种视频构建方法及系统
CN113298735A (zh) * 2021-06-22 2021-08-24 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备及存储介质
CN113660425B (zh) * 2021-08-19 2023-08-22 维沃移动通信(杭州)有限公司 图像处理方法、装置、电子设备及可读存储介质
CN116095517B (zh) * 2022-08-31 2024-04-09 荣耀终端有限公司 虚化方法、终端设备和可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015073185A (ja) 2013-10-02 2015-04-16 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2017200049A1 (ja) 2016-05-20 2017-11-23 日立マクセル株式会社 撮像装置およびその設定画面

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100337473C (zh) * 2004-09-30 2007-09-12 中国科学院计算技术研究所 运动视频的全景图合成方法
WO2007077719A1 (ja) * 2005-12-27 2007-07-12 Kyocera Corporation 撮像装置およびその画像処理方法
US7469071B2 (en) * 2006-02-14 2008-12-23 Fotonation Vision Limited Image blurring
CN101636745A (zh) * 2006-12-29 2010-01-27 格斯图尔泰克股份有限公司 使用增强型交互系统操纵虚拟对象
JP4916355B2 (ja) * 2007-03-20 2012-04-11 三洋電機株式会社 絞り制御装置及び画像処理装置
JP5547730B2 (ja) * 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
JP5322995B2 (ja) * 2010-05-10 2013-10-23 キヤノン株式会社 撮像装置及びその制御方法
US8947555B2 (en) * 2011-04-18 2015-02-03 Qualcomm Incorporated White balance optimization with high dynamic range images
JP5860663B2 (ja) * 2011-10-18 2016-02-16 日立オートモティブシステムズ株式会社 ステレオ撮像装置
US9142010B2 (en) * 2012-01-04 2015-09-22 Audience, Inc. Image enhancement based on combining images from multiple cameras
US20130242057A1 (en) * 2012-03-16 2013-09-19 Research In Motion Limited Methods and devices for producing an enhanced image
KR101937708B1 (ko) * 2012-07-09 2019-04-11 삼성전자 주식회사 카메라 제어 시스템과 이를 포함하는 단말기 및 카메라 제어 방법
US9690458B2 (en) * 2012-09-10 2017-06-27 Mediatek Inc. Image viewing method for displaying portion of selected image based on user interaction input and related image viewing system and machine readable medium
JP2014131188A (ja) * 2012-12-28 2014-07-10 Canon Inc 撮像装置、その制御方法、および制御プログラム
US9349166B2 (en) * 2012-12-31 2016-05-24 Nokia Technologies Oy Method, apparatus and computer program product for generating images of scenes having high dynamic range
CN104935911B (zh) 2014-03-18 2017-07-21 华为技术有限公司 一种高动态范围图像合成的方法及装置
KR101579098B1 (ko) * 2014-05-23 2015-12-21 엘지전자 주식회사 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량
US9131150B1 (en) * 2014-06-06 2015-09-08 Amazon Technologies, Inc. Automatic exposure control and illumination for head tracking
US9607394B2 (en) * 2014-11-20 2017-03-28 Lenovo (Beijing) Co., Ltd. Information processing method and electronic device
US20160227100A1 (en) * 2015-01-29 2016-08-04 Qualcomm Incorporated Dual camera systems and methods for rapid 3a convergence and high dynamic range exposure metering
CN105100615B (zh) * 2015-07-24 2019-02-26 青岛海信移动通信技术股份有限公司 一种图像的预览方法、装置及终端
CN105187722B (zh) * 2015-09-15 2018-12-21 努比亚技术有限公司 景深调节方法、装置及终端
US10453185B2 (en) * 2015-11-12 2019-10-22 Aquifi, Inc. System and method for high dynamic range depth capture using multiple cameras
US20170332000A1 (en) * 2016-05-10 2017-11-16 Lytro, Inc. High dynamic range light-field imaging
EP3300022B1 (en) * 2016-09-26 2019-11-06 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
CN106357980A (zh) 2016-10-19 2017-01-25 广东欧珀移动通信有限公司 图像虚化处理方法、装置和移动终端
US20180139369A1 (en) * 2016-11-16 2018-05-17 Motorola Mobility Llc Backlit face detection
US10264193B2 (en) * 2016-12-06 2019-04-16 Polycom, Inc. System and method for providing images and video having high dynamic range
CN106899781B (zh) * 2017-03-06 2020-11-10 宇龙计算机通信科技(深圳)有限公司 一种图像处理方法及电子设备
CN106851124B (zh) * 2017-03-09 2021-03-02 Oppo广东移动通信有限公司 基于景深的图像处理方法、处理装置和电子装置
CN106851123B (zh) * 2017-03-09 2020-12-22 Oppo广东移动通信有限公司 曝光控制方法、曝光控制装置及电子装置
CN106952222A (zh) * 2017-03-17 2017-07-14 成都通甲优博科技有限责任公司 一种交互式图像虚化方法及装置
CN107018331A (zh) * 2017-04-19 2017-08-04 努比亚技术有限公司 一种基于双摄像头的成像方法及移动终端
CN106937039B (zh) * 2017-04-26 2020-08-11 安徽龙运智能科技有限公司 一种基于双摄像头的成像方法、移动终端及存储介质
US10453208B2 (en) * 2017-05-19 2019-10-22 Waymo Llc Camera systems using filters and exposure times to detect flickering illuminated objects
CN107241557A (zh) * 2017-06-16 2017-10-10 广东欧珀移动通信有限公司 图像曝光方法、装置、摄像设备及存储介质
CN107172353B (zh) * 2017-06-16 2019-08-20 Oppo广东移动通信有限公司 自动曝光方法、装置和计算机设备
CN107277356B (zh) * 2017-07-10 2020-02-14 Oppo广东移动通信有限公司 逆光场景的人脸区域处理方法和装置
CN107948519B (zh) * 2017-11-30 2020-03-27 Oppo广东移动通信有限公司 图像处理方法、装置及设备
US10498963B1 (en) * 2017-12-04 2019-12-03 Amazon Technologies, Inc. Motion extracted high dynamic range images
US20190243376A1 (en) * 2018-02-05 2019-08-08 Qualcomm Incorporated Actively Complementing Exposure Settings for Autonomous Navigation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015073185A (ja) 2013-10-02 2015-04-16 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
WO2017200049A1 (ja) 2016-05-20 2017-11-23 日立マクセル株式会社 撮像装置およびその設定画面

Also Published As

Publication number Publication date
US10997696B2 (en) 2021-05-04
JP2020535758A (ja) 2020-12-03
CN107948519A (zh) 2018-04-20
KR20200041981A (ko) 2020-04-22
US20190164257A1 (en) 2019-05-30
KR102278776B1 (ko) 2021-07-20
CN107948519B (zh) 2020-03-27
WO2019105154A1 (en) 2019-06-06
EP3496383A1 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
JP6911192B2 (ja) 画像処理方法、装置および機器
JP7015374B2 (ja) デュアルカメラを使用する画像処理のための方法および移動端末
JP7145208B2 (ja) デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体
CN107977940B (zh) 背景虚化处理方法、装置及设备
US10825146B2 (en) Method and device for image processing
EP3480784B1 (en) Image processing method, and device
CN107493432B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
WO2019109805A1 (zh) 图像处理方法和装置
CN107509031B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
CN108154514B (zh) 图像处理方法、装置及设备
KR102304784B1 (ko) 더블 카메라 기반 이미징 방법 및 장치
CN107872631B (zh) 基于双摄像头的图像拍摄方法、装置及移动终端
JP2019110430A (ja) 制御装置、撮像装置、制御方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211228

R150 Certificate of patent or registration of utility model

Ref document number: 7003238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150