JP2020533697A - 画像処理のための方法および装置 - Google Patents

画像処理のための方法および装置 Download PDF

Info

Publication number
JP2020533697A
JP2020533697A JP2020514542A JP2020514542A JP2020533697A JP 2020533697 A JP2020533697 A JP 2020533697A JP 2020514542 A JP2020514542 A JP 2020514542A JP 2020514542 A JP2020514542 A JP 2020514542A JP 2020533697 A JP2020533697 A JP 2020533697A
Authority
JP
Japan
Prior art keywords
image
camera
main
auxiliary
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020514542A
Other languages
English (en)
Other versions
JP6935587B2 (ja
Inventor
オウヤン、ダン
タン、グオフイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020533697A publication Critical patent/JP2020533697A/ja
Application granted granted Critical
Publication of JP6935587B2 publication Critical patent/JP6935587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Cameras In General (AREA)

Abstract

画像処理のための方法は、以下の操作を含む。主カメラで撮影されたn個のフレームの第1の画像と補助カメラで撮影された補助画像が取得された後に、n個のフレームの第1の画像に対して合成ノイズ低減が実行されて、主画像のフレームが取得される。主画像の奥行き情報が、主画像および補助画像に従ってさらに計算される。したがって、必要な第2の画像を取得するために、主画像の奥行き情報に従って主画像に対してぼかし処理が実行される。

Description

本開示は、モバイル端末の技術分野に関し、特に、画像処理のための方法および装置に関する。
関連技術では、画像上で背景ぼかし処理を実施するために、ダブルカメラを採用してそれぞれ2枚の写真を取得することができる。2枚の写真のうちの1枚を撮像写真として決定し、撮像写真の奥行き情報を他の写真に従って計算し、それに従って撮像写真の背景にぼかし処理を行う。
しかしながら、このような従来技術の手法を暗い環境で採用すると、撮像された写真の撮像効果が乏しく、さらに、奥行き情報があまり正確ではないため、ぼかし処理された画像の効果が比較的乏しくなる。
第1の態様によれば、画像処理のための方法が開示される。本方法は次の操作を含んでもよい。
主カメラで撮影されたn個のフレームの第1の画像が取得される。補助画像は補助カメラによって取得され、nは2以上の自然数である。n個のフレームの第1の画像は基本フレーム画像のフレームを含んでもよく、補助カメラにより撮影された補助画像および主カメラにより撮影された基本フレーム画像は同期して撮影されてもよい。
主画像のフレームを取得するために、n個のフレームの第1の画像に対して合成ノイズ低減が実行される。
主画像に従って形成された画像が生成される。
形成された画像の奥行き情報は、補助画像に従って計算される。
形成された画像の奥行き情報に従って形成された画像に対してぼかし処理が実行され、必要な第2の画像が取得される。
第2の態様によれば、画像処理のための装置が開示される。装置は、プロセッサと、命令を格納するメモリとを含んでもよい。命令は、プロセッサによって実行されると、プロセッサに第1の態様による方法を実行させる。
第3の態様によれば、非一時的なコンピュータ可読記憶媒体が開示され、プログラムがプロセッサによって実行されて、第1の態様による画像処理のための方法を実施してもよい。
本開示の上記および/または追加の態様および利点は、図面と組み合わせて以下の実施形態に対してなされる説明から明らかになり、理解しやすくなるであろう。
本開示の一実施形態によるダブルカメラベースの撮像方法のフローチャートである。 三角測距原理の概略図である。 本開示の一実施形態による別のダブルカメラベースの撮像方法のフローチャートである。 本開示の一実施形態による画像処理のための装置の構成図である。 本開示の一実施形態による画像処理のための別の装置の構成図である。 本開示の別の実施形態による端末機器の構成図である。 一実施形態による画像処理回路の概略図である。
以下、本開示の実施形態について詳細に説明する。実施形態の例が図面に示されており、同一または類似の符号は、常に同一もしくは類似の構成要素または同一もしくは類似の機能を備えた構成要素を表す。図面を参照して以下に説明する実施形態は例示であり、本開示を説明することを意図しており、本開示に対する限定として理解するべきではない。
以下、図面を参照して、本開示の実施形態の画像処理のための方法および装置について説明する。
画像処理の方法は、ダブルカメラを備えたハードウェア装置、例えば、携帯電話、タブレットコンピュータ、携帯情報端末、ウェアラブルデバイスによって実行されてもよい。ダブルカメラを備えたハードウェア装置は、撮影モジュールを含む。撮影モジュールは、主カメラと補助カメラを含む。主カメラと補助カメラには、それぞれ独立したレンズ、画像センサ、ボイスコイルモータが装備されている。ダブルカメラの主カメラと補助カメラの両方がカメラコネクタで接続されており、ボイスコイルモータは、カメラコネクタによって提供される電流値に従って駆動され、主カメラと補助カメラはボイスコイルモータによって駆動され、レンズと画像センサ間の距離を調整して合焦を実施する。
考えられるアプリケーションシナリオとして、補助カメラの解像度は主カメラの解像度よりも低い。合焦時には、補助カメラのみが合焦のために採用される。補助カメラがシャープに合焦している間、補助カメラのモータの第2の駆動電流値が取得され、主カメラおよび補助カメラが同じシャープな焦点距離を有する場合、主カメラのモータの第1の駆動電流値が第2の駆動電流値に従ってさらに決定され、第1の駆動電流値が合焦のために主カメラを駆動するために採用される。補助カメラは解像度が比較的低く、画像処理速度が比較的速いので、合焦速度を上げることができ、従来技術におけるダブルカメラの合焦速度が比較的低いという技術的問題が解決される。
ダブルカメラの特定の実施プロセスでは、異なるカメラを選択し、ダブルカメラの主カメラと補助カメラとして組み合わせて、異なるユーザの要件を満たすことができる。
アプリケーションシナリオでは、比較的高い合焦速度が必要である。次に、ダブルカメラの主カメラは具体的には通常のカメラであり、ダブルカメラの補助カメラは具体的にはデュアルピクセル(PD)カメラである。PDカメラの解像度は、通常のカメラよりも低い。したがって、より高い合焦速度が達成される。
PDカメラの各ピクセルは2つのユニットで構成されていることに留意されたい。2つのユニットは、位相合焦検出ポイントとしてとられてもよく、また、撮像のためにピクセル内に結合されてもよい。したがって、電子ビューファインディング中の合焦性能は大幅に改善される。PD相補型金属酸化膜半導体(CMOS)センサカメラは、特にCMOSをセンサとして採用している一般的なPDカメラであり、元々一眼レフカメラに採用されている。
別のアプリケーションシナリオでは、比較的優れた撮像効果が要求される。次に、広角カメラと望遠カメラを組み合わせてダブルカメラにする。主カメラと補助カメラは、撮影要件に従って切り替えられる。具体的には、クローズショット(close shot)を撮影する場合には、広角カメラを主カメラとして使用し、望遠カメラを補助カメラとして使用する。ロングショットを撮影する場合には、望遠カメラを主カメラとして使用し、広角カメラを補助カメラとして使用する。したがって、光学ズーム機能が実現されるだけでなく、画像品質とそれに続くぼかし効果も保証される。
他の多くの可能な実施態様も、ダブルカメラの特定の選択のために採用することができ、本実施形態では詳述しない。
図1は、本開示の一実施形態による画像処理のための方法のフローチャートである。
図1に示すように、画像処理の方法は以下の操作を含む。
符号101では、n個のフレームの第1の画像が主カメラによって取得され、補助画像が補助カメラによって取得される。
nは2以上の自然数であり、n個のフレームの第1の画像は基本フレーム画像のフレームを含み、補助カメラにより撮影された補助画像および主カメラにより撮影された基本フレーム画像は同期して撮影される。
本実施形態では、ダブルカメラの主カメラおよび補助カメラは、周囲輝度に従って予め決定されてもよい。
具体的には、周囲輝度がしきい値輝度以下で光が不十分な場合に主カメラとして高解像度カメラを撮影のために採用すると、より多くのノイズが発生し、撮像効果が低下する可能性がある。したがって、本実施形態では、十分な光がある場合、主カメラとして高ISOカメラを採用し、補助カメラとして高解像度カメラを採用することにより、画像のノイズを低減し、撮像効果を改善して写真を撮影することができる。逆に、周囲輝度がしきい値輝度よりも高く、十分な光がある場合、高解像度カメラの解像度は比較的高くなり、ノイズの少ない比較的鮮明な画像を形成できるので、本実施形態では、高解像度カメラを主カメラとして採用し、高ISOカメラを補助カメラとして採用することにより、撮像効果を向上させて写真を撮影することができる。
主カメラと補助カメラを決定した後に、主カメラと補助カメラを同時に採用して、連続してビューを見つけて撮影し、主カメラと補助カメラによってそれぞれ撮影された複数のフレームの画像を取得することができ、主カメラにより撮影された複数のフレームの撮影画像から、連続して撮影されたn個のフレームの撮影画像を、n個のフレームの第1の画像として選択してもよい。例えば、連続して撮影されたn個のフレームの画像を、n個のフレームの第1の画像としてランダムに選択してもよいし、平均解像度が最も高く、連続して撮影されたn個のフレームの撮影画像を、n個のフレームの第1の画像として選択してもよい。それには限定されない。
n個のフレームの第1の画像が取得された後に、n個のフレームの第1の画像における基本フレーム画像が決定されてもよい。可能な実施モードとして、撮像効果を改善するために、n個のフレームの第1の画像で最高の解像度を有する撮影画像を基本フレーム画像として決定してもよく、補助カメラが撮影した複数のフレームの撮影画像から、主カメラが撮影した基本フレーム画像と同期して撮影された撮影画像のフレームが補助画像として選択される。補助カメラで撮影された補助画像と主カメラで撮影された高解像度の基本フレーム画像は同期して撮影されるため、対応する補助画像を利用して被写界深度を計算すると、奥行き情報の計算精度が向上され得る。
符号102では、主画像のフレームを取得するために、n個のフレームの第1の画像に対して合成ノイズ低減が実行される。
本実施形態では、ノイズ低減アルゴリズムを採用して、n個のフレームの第1の画像に対して合成ノイズ低減を実行して、主画像のフレームを取得することができる。ここで、ノイズ低減アルゴリズムは、非局所的手段のノイズ低減アルゴリズムであってもよく、また、実施形態において限定されない別のノイズ低減アルゴリズムであってもよい。
マルチフレーム統合ノイズ低減プロセスを簡便かつ明確に理解するために、マルチフレーム統合ノイズ低減について以下に簡単に紹介する。
周囲光が不十分な場合、モバイル端末などの撮像機器は通常、ISOを自動的に改善する方法を採用している。しかし、ISOを改善するこのような方法では、画像のノイズが多くなる。マルチフレーム統合ノイズ低減は、画像内のノイズポイントを低減し、高ISO条件で撮影された画像の品質を向上させることを目的としている。原理は、ノイズポイントはランダムな順序で配置されるという先験的な知識である。具体的には、複数のフレームの撮影画像を連続して撮影した後に、同じ位置に現れるノイズポイントは赤色ノイズポイントであってもよく、また緑色ノイズポイントと白色ノイズポイントであってもよく、ノイズポイントがなくてもよく、その結果、比較とスクリーニング条件があり、ノイズであるピクセル(すなわち、ノイズポイント)は、複数のフレームの撮影画像内の同じ位置に対応する各ピクセルの値に従ってスクリーニングされ得る。さらに、ノイズポイントがスクリーニングされた後に、ノイズポイント除去効果を達成するために、さらなるアルゴリズムに従ってノイズポイントに対して色推測およびピクセル置換処理がさらに実行されてもよい。このような処理により、非常に低い画質損失度でノイズを低減する効果が達成され得る。
例えば、比較的簡便なマルチフレーム統合ノイズ低減方法として、複数のフレームの撮影画像が取得された後に、複数のフレームの撮影画像の同じ位置に対応する各ピクセルの値を読み取ることができ、これらのピクセルの加重平均が計算されて、合成画像の位置のピクセルの値が生成される。そのような方法で、鮮明な画像を取得することができる。
複数のフレームの撮影画像には、最も鮮明な画像のフレームが含まれ、それが基本フレームとして決定されてもよい。基本フレームの場合、可能な実施モードとして、基本フレームの重みは他の撮影画像の重みよりも高くすることができる。すなわち、他の撮影画像を基準として、基本フレーム内のノイズポイントを認識して除去する機能が実質的に実現される。
符号103では、主画像の奥行き情報が主画像および補助画像に従って計算される。
具体的には、主カメラと補助カメラとの間に一定の距離があり、それにより2つのカメラの視差が生じるため、異なるカメラで撮影された画像は異なるはずである。主画像は主カメラで撮影された画像の合成ノイズ低減によって取得され、補助画像は補助カメラで撮影されるので、主画像と補助画像との間にも一定の差があり得る。三角測距原理によれば、主画像と補助画像内の同じ対象物の奥行き情報、すなわち、対象物と、主カメラおよび補助カメラが位置する平面との間の距離を計算することができる。
プロセスを明確に説明するために、三角測距原理を以下に簡単に紹介する。
実際のシナリオでは、写真視野の奥行きは、目で解決される場合、主に両眼視によって解決される。これは、ダブルカメラで奥行きを解決する原理と同じである。本実施形態では、第2の撮影画像により形成された画像の奥行き情報を算出する主な方法は、三角測距原理である。図2は、三角測距原理の概略図である。
図2では、撮像対象物、2つのカメラの位置OとO、および2つのカメラの焦点面が実際の空間に描かれ、焦点面と2つのカメラが位置する平面との間の距離はfであり、2つのカメラは焦点面の位置で撮像を実行し、それによって2つの撮影画像を取得する。
PおよびP’は、それぞれ異なる撮影画像における同じ対象物の位置であり、Pと対応する撮影画像の左側の境界との間の距離はXであり、P’と対応する撮影画像の左側の境界との間の距離はXである。OとOはそれぞれ2つのカメラであり、2つのカメラは距離Bで同じ平面に配置されている。
三角測距原理に基づいて、図2で対象物と2つのカメラが配置されている平面との間の距離Zには、次の関係がある。
そのような根拠に基づいて、
を計算することができ、dは、異なる撮影画像における同じ対象物の位置の間の距離差である。Bとfは固定値であるから、対象物の距離Zはdに従って決定することができる。
符号104では、必要な第2の画像を取得するために、主画像の奥行き情報に従って主画像に対してぼかし処理が実行される。
具体的には、主画像の奥行き情報を計算した後に、主画像内の対象物の奥行き情報に従って、対象物が前景であるか背景であるかを判定することができる。一般的に、対象物が主カメラと補助カメラが配置されている平面に比較的近く、奥行き値が比較的小さいことを奥行き情報が示す場合、対象物は前景であると判断することができ、そうでなければ対象物は背景である。
認識された背景に対してぼかし処理を実行して、必要な第2の画像を取得することができる。第2の画像では、前景がより強調され、背景がぼやけており、前景に焦点を合わせた撮像効果が実現している。
本実施形態のダブルカメラベースの撮像方法によれば、主カメラで撮影されたn個のフレームの第1の画像と補助カメラで撮影された補助画像が取得された後に、n個のフレームの第1の画像に対して合成ノイズ低減が実行されて、主画像のフレームが取得され、主画像の奥行き情報は、主画像および補助画像に従ってさらに計算され、これにより、必要な第2の画像を取得するために、主画像の奥行き情報に従って主画像にぼかし処理を実行する。合成ノイズ低減は、主画像のフレームを取得するためにn個のフレームの第1の画像に対して実行されるので、画像のノイズが低減され、主画像の解像度は比較的高くなる。さらに、補助カメラで撮影した補助画像と主カメラで撮影した基本フレーム画像は同期して撮影されるので、対応する補助画像に従って高解像度の主画像に後続のぼかし処理を実行することで、一方で撮影写真の撮像効果を改善し、他方で、奥行き情報の精度を向上させて、比較的良好な画像処理効果をさらに達成し、従来技術におけるぼかし処理を施した画像の比較的劣った効果の技術的問題を解決する。
前述の実施形態を明確に説明するために、実施形態は、画像処理のための別の方法を提供する。図3は、本開示の一実施形態による画像処理のための別の方法のフローチャートを示している。
図3に示すように、画像処理の方法は以下の操作を含むことができる。
符号301では、ダブルカメラの主カメラと補助カメラが周囲輝度に従って決定される。
具体的には、可能な実施態様として、周囲輝度を測定するために独立した測光装置が採用されてもよい。
別の可能な実施態様として、第1のカメラおよび第2のカメラによって自動的に調整されるISO値を読み取ることができ、読み取られたISO値に従って周囲輝度が決定される。通常、第1のカメラと第2のカメラは同じISO値を採用する必要があるので、ISO値を採用することで対応する周囲輝度が決定されてもよい。しかしながら、第1のカメラの読み取られたISO値と第2のカメラのISO値が異なる場合には、対応する周囲輝度は、2つの平均値に従って決定されてもよい。
ISO値は、カメラのISOを示すように構成されていることに留意されたい。一般的なISO値は、50、100、200、400、1,000などを含む。カメラは、周囲輝度に従って自動的にISO値を設定してもよい。したがって、本実施形態では、ISO値に従って周囲輝度を逆算してもよい。一般に、十分な光の条件下ではISO値は50または100であり、不十分な光の条件下ではISO値は400以上になり得る。
ダブルカメラは、第1のカメラと第2のカメラを含む。第1のカメラの解像度は第2のカメラの解像度よりも高く、第2のカメラのISOは第1のカメラのISOよりも高くなる。例えば、第1のカメラは16MPカメラであり、第2のカメラは8MPカメラであってもよい。
具体的には、周囲輝度がしきい値輝度よりも高い場合には、第1のカメラが主カメラとして決定され、第2のカメラが補助カメラとして決定される。周囲輝度がしきい値輝度以下である場合には、第2のカメラが主カメラとして決定され、第1のカメラが補助カメラとして決定される。
これは、周囲輝度がしきい値輝度以下で光が不十分な場合に主カメラとして高解像度カメラを撮影のために採用すると、より多くのノイズが発生し、撮像効果が低下する可能性があるためである。したがって、十分な光がある場合には、画像のノイズを減らし、撮像効果を向上させるために、高ISOカメラを主カメラとして撮影に採用することができる。
逆に、十分な光がある場合で周囲輝度がしきい値輝度よりも高い場合には、高解像度カメラの解像度は比較的高く、ノイズの少ない比較的鮮明な画像が形成され得るので、高解像度カメラは主カメラとしての撮影に採用されてもよく、高ISOカメラは補助カメラとして比較的正確な奥行き情報を計算するために採用される。したがって、撮像効果が向上する。
符号302では、主カメラに対応する合成フレーム番号nが周囲輝度に従って決定され、nは周囲輝度と負の関係を形成し、2〜6の範囲の値を有する。
周囲輝度がより高く、光がより十分である場合には、カメラの撮像効果がより良くなることが理解できる。次に、カメラを撮影に採用すると、撮影画像のノイズが少なくなり、ノイズ低減精度の要件が低くなる。したがって、合成ノイズ低減中に、撮影画像の比較的少数のフレームが採用され得る。逆に、周囲輝度が低いと、カメラの撮像効果は低下する。次に、カメラを撮影に採用すると、撮影画像にノイズが多くなる、すなわち、撮影画像にノイズポイントが多くなり、ノイズ低減精度の要件が高くなる。したがって、合成ノイズ低減中に、撮影画像の比較的多数のフレームが採用され得る。
したがって、本実施形態では、実際の応用において、主カメラに対応する合成フレーム番号nは、モバイル端末の周囲輝度に従って決定されてもよい。
符号303では、撮影操作の検出に応答して、主カメラおよび補助カメラが同期して撮影するように制御され、主カメラおよび補助カメラの各々が複数のフレームの撮影画像を取得する。
具体的には、ユーザは、主カメラと補助カメラの各々が複数のフレームの撮影画像を取得するように、主カメラと補助カメラが同期して撮影できるように撮影ボタンをトリガーしてもよい。
可能な実施モードとして、主カメラで取得した画像のみをプレビューしてもよく、満足のいくプレビュー画像を表示しているときに、ユーザが撮影ボタンをクリックし、これにより、主カメラと補助カメラを制御して、同期して写真を撮影し、それぞれ複数のフレームの撮影画像を取得する。
符号304では、主カメラの複数のフレームの撮影画像の中から、連続して撮影されたn個のフレームの撮影画像が、n個のフレームの第1の画像として選択される。
具体的には、主カメラにより撮影された複数のフレームの撮影画像が決定された後に、主カメラの複数のフレームの撮影画像から連続撮影されたn個のフレームの撮影画像をn個のフレームの第1の画像として選択してもよい。例えば、連続して撮影されたn個のフレームの撮影画像を、n個のフレームの第1の画像としてランダムに選択してもよいし、平均解像度が最も高く、連続して撮影されたn個のフレームの撮影画像を、n個のフレームの第1の画像として選択してもよい。それには限定されない。
符号305では、n個のフレームの第1の画像における基本フレーム画像のフレームが、n個のフレームの第1の画像の解像度に従って決定される。
具体的には、撮像効果を改善するために、n個のフレームの第1の画像で最高の解像度を有する撮影画像を基本フレーム画像として決定してもよい。
符号306では、補助カメラの複数のフレームの撮影画像から、基本フレーム画像と同期して撮影された撮影画像のフレームが補助画像として選択される。
具体的には、最も高い解像度の撮影画像が基本フレーム画像として選択された後に、補助カメラの複数のフレームの撮影画像から基本フレーム画像と同期して撮影された撮影画像のフレームが補助画像として選択されてもよい。補助カメラで撮影された補助画像と主カメラで撮影された高解像度の基本フレーム画像は同期して撮影されるため、対応する補助画像を利用して被写界深度を計算すると、奥行き情報の計算精度が向上され得る。
符号307では、主画像のフレームを取得するために、n個のフレームの第1の画像に対して合成ノイズ低減が実行される。
符号308では、撮影モードと主カメラの解像度に従って主画像解像度が決定され、撮影モードと補助カメラの解像度に従って補助画像解像度が決定される。
具体的には、撮影モードは、フルレングスモードとハーフレングスモードを含んでもよい。フルレングスモードは、ポートレート撮影中にフルレングスのポートレートを撮影する必要があるシナリオに適用される。ユーザがフルレングスモードを選択すると、ユーザは通常、ビューファインディング中にファインダーフレーム内のポートレート全体を見つけることができる。
ハーフレングスモードは、ポートレート撮影中にハーフレングスのポートレートを撮影する必要があるシナリオに適用される。ハーフレングスのポートレートはポートレートの一部である。例えば、ハーフレングスのポートレートに頭と胴体上部が含まれる場合、ユーザがハーフレングスモードを選択すると、ユーザは通常、ビューファインディング中にファインダーフレーム内のポートレートの上部のみを見つけることができる。
可能な実施モードとして、モバイル端末の撮影プレビューインターフェースに制御を提供し、ユーザが制御を介して撮影モードを選択できるようにする。
撮影モードがフルレングスモードである場合には、主カメラの解像度と、決定された主カメラの解像度に応じたフルレングスモードに対応する調整係数との乗算演算が実行され、主画像解像度が得られ、決定された補助カメラの解像度に従って、補助カメラの解像度とフルレングスモードに対応する調整係数に対して乗算演算が実行され、補助画像解像度が得られる。
本明細書で言及される調整係数は、画像解像度調整プロセスにおける調整された解像度と調整されていない解像度との間の比例関係を示すように構成される。ここで、調整係数の値の範囲は1より大きく、0〜1である。具体的には、調整された解像度が調整されていない解像度よりも高い場合には、調整係数の値は1より大きく、調整された解像度が調整されていない解像度より低い場合には、調整係数の値は0〜1である。
撮影モードがハーフレングスモードである場合には、主カメラの解像度と、決定された主カメラの解像度に応じたハーフレングスモードに対応する調整係数との乗算演算が実行され、主画像解像度が得られ、決定された補助カメラの解像度に従って、補助カメラの解像度とハーフレングスモードに対応する調整係数に対して乗算演算が実行される。
フルレングスモードに対応する調整係数は、ハーフレングスモードに対応する調整係数よりも高いことに留意されたい。
符号309では、主画像の解像度が主画像解像度に従って調整され、補助画像の解像度が補助画像解像度に従って調整される。
具体的には、撮影モードに対応する調整係数が1以下の正の数である場合、主画像の主画像解像度と一致するターゲット領域がトリミングされて、解像度が調整された主画像が取得され、補助画像の補助画像解像度と一致するターゲット領域がトリミングされて、解像度が調整された補助画像が取得される。
可能なアプリケーションシナリオでは、主カメラは広角カメラで、補助カメラは望遠カメラである。それに対応して、ターゲット領域は画像の中央領域であってもよい。これは、広角カメラには周辺の歪みが存在し、撮像効果が低下するためである。比較的良好な形成画像を取得し、撮像効果を確保するために、広角カメラで撮影された第1の撮影画像がトリミングされ、画像の中央領域が確保され、周辺の歪んだ領域が除去されて広角カメラの撮像効果が改善される。
具体的な設定されたターゲット領域範囲は、実際のアプリケーションにおける撮像パラメータ、例えば、広角カメラの解像度、撮影環境などに従って、当業者が具体的に設定してもよい。
可能な実施態様として、設定されたターゲット領域範囲は、広角カメラの解像度、周辺歪み度などに従って設定されてもよい。広角カメラの光学設計により、広視野条件下での周辺歪みは避けられない。具体的には、近軸撮像はy’=f×tan(T)の撮像関係を満たし、ここで、y’はセンサの半径方向の寸法、Tは視野、fは焦点距離である。センサの半径方向の寸法y’は一定であるため、fが小さくなると、つまり短い焦点端の条件下でTは間違いなく増加し、その後に、広い角度が達成される。しかし、撮像則は、広視野条件下で近軸条件と徐々に矛盾し、y’=f×tan(T)を満たす撮像関係は徐々にy=f×T則に近くなるため、大きな視野で負の歪みが生じる。このような歪みは、画像の周辺部でより強調される。上記の歪み原理に基づいて、周辺の歪み度はある程度の視野のサイズに関連付けられていることがわかる。したがって、設定されたターゲット領域範囲は、広角カメラの視野および解像度の少なくとも一方に従って決定されてもよい。
符号310では、主画像の奥行き情報が主画像および補助画像に従って計算される。
符号311では、必要な第2の画像を取得するために、主画像の奥行き情報に従って主画像に対してぼかし処理が実行される。
本実施形態の画像処理のための方法によれば、主カメラで撮影されたn個のフレームの第1の画像と補助カメラで撮影された補助画像が取得された後に、n個のフレームの第1の画像に対して合成ノイズ低減が実行されて、主画像のフレームが取得され、主画像の奥行き情報は、主画像および補助画像に従ってさらに計算され、これにより、必要な第2の画像を取得するために、主画像の奥行き情報に従って主画像にぼかし処理を実行する。合成ノイズ低減は、主画像のフレームを取得するためにn個のフレームの第1の画像に対して実行されるので、画像のノイズが低減され、主画像の解像度は比較的高くなる。さらに、補助カメラで撮影した補助画像と主カメラで撮影した基本フレーム画像は同期して撮影されるので、対応する補助画像に従って高解像度の主画像に後続のぼかし処理を実行することで、一方で撮影写真の撮像効果を改善し、他方で、奥行き情報の精度を向上させて、比較的良好な画像処理効果をさらに達成し、従来技術におけるぼかし処理を施した画像の比較的劣った効果の技術的問題を解決する。
上述の実施形態を実施するために、本開示は、画像処理のための装置をさらに開示する。
図4は、本開示の一実施形態による画像処理のための装置の構成図を示す。画像処理のための装置は、モバイル端末に適用されてもよい。
図4に示すように、画像処理のための装置は、取得モジュール410、ノイズ低減モジュール420、計算モジュール430、および処理モジュール440を含む。
取得モジュール410は、主カメラによって撮影されたn個のフレームの第1の画像を取得し、補助カメラによって撮影された補助画像を取得するように構成され、nは2以上の自然数であり、n個のフレームの第1の画像は基本フレーム画像のフレームを含み、補助カメラにより撮影された補助画像および主カメラにより撮影された基本フレーム画像は同期して撮影される。
ノイズ低減モジュール420は、主画像のフレームを取得するために、n個のフレームの第1の画像に対して合成ノイズ低減を実行するように構成される。
計算モジュール430は、主画像および補助画像に従って主画像の奥行き情報を計算するように構成される。
処理モジュール440は、必要な第2の画像を取得するために、主画像の奥行き情報に従って主画像にぼかし処理を実行するように構成される。
さらに、可能な実施モードとして、図5を参照すると、図4に基づいて、画像処理のための装置は、決定モジュール450および読み取りモジュール460をさらに含んでもよい。
決定モジュール450は、周囲輝度に従ってダブルカメラの主カメラおよび補助カメラを決定し、周囲輝度に従って主カメラに対応する合成フレーム番号nを決定するように構成され、nは周囲輝度と負の関係を形成し、2〜6の範囲の値を有する。
読み取りモジュール460は、ダブルカメラのISO値を読み取り、ダブルカメラの読み取られたISO値に従って周囲輝度を決定するように構成される。
本実施形態では、決定モジュール450は、主カメラおよび補助カメラのISO値を読み取り、読み取られた主カメラおよび補助カメラのISO値に従って周囲輝度を決定するように具体的に構成される。
可能な実施モードとして、取得モジュール410は、撮影ユニット411、第1の選択ユニット412、第2の選択ユニット413および第3の選択ユニット414を含む。
撮影ユニット411は、撮影操作の検出に応答して、主カメラおよび補助カメラの各々が複数のフレームの撮影画像を取得するように、主カメラおよび補助カメラを制御して同期して撮影するように構成されている。
第1の選択ユニット412は、主カメラの複数のフレームの撮影画像から連続して撮影されたn個のフレームの撮影画像をn個のフレームの第1の画像として選択し、n個のフレームの第1の画像の解像度に従って、n個のフレームの第1の画像における基本フレーム画像のフレームを決定するように構成される。
第2の選択ユニット413は、補助カメラの複数のフレームの撮影画像から基本フレーム画像と同期して撮影された撮影画像のフレームを補助画像として選択するように構成されている。
第3の選択ユニット414は、補助カメラの複数のフレームの撮影画像から基本フレーム画像と同期して撮影された撮影画像のフレームを補助画像として選択するように構成されている。
画像処理のための方法の実施形態に関する説明および説明は、実施形態の画像処理のための装置にも適用され、本明細書では詳述されないことに留意されたい。
本実施形態の画像処理のための装置によれば、主カメラで撮影されたn個のフレームの第1の画像と補助カメラで撮影された補助画像が取得された後に、n個のフレームの第1の画像に対して合成ノイズ低減が実行されて、主画像のフレームが取得され、主画像の奥行き情報は、主画像および補助画像に従ってさらに計算され、これにより、必要な第2の画像を取得するために、主画像の奥行き情報に従って主画像にぼかし処理を実行する。合成ノイズ低減は、主画像のフレームを取得するためにn個のフレームの第1の画像に対して実行されるので、画像のノイズが低減され、主画像の解像度は比較的高くなる。さらに、補助カメラで撮影した補助画像と主カメラで撮影した基本フレーム画像は同期して撮影されるので、対応する補助画像に従って高解像度の主画像に後続のぼかし処理を実行することで、一方で撮影写真の撮像効果を改善し、他方で、奥行き情報の精度を向上させて、比較的良好な画像処理効果をさらに達成し、従来技術におけるぼかし処理を施した画像の比較的劣った効果の技術的問題を解決する。
上述の実施形態を実施するために、本開示はさらにモバイル端末を開示する。図6は、本開示の別の実施形態による端末機器の構成図である。図6に示すように、端末機器1000は、シェル1100と、シェル1100に配置された主カメラ1112、補助カメラ1113、メモリ1114およびプロセッサ1115を含む。
実行可能プログラムコードがメモリ1114に格納され、プロセッサ1115が、メモリ1114に格納された実行可能プログラムコードを読み取り、実行可能プログラムコードに対応するプログラムを実行して、上述の方法の実施形態の画像処理のための方法を実施する。
上述の実施形態を実施するために、本開示は、コンピュータプログラムが格納されたコンピュータ可読記憶媒体をさらに開示し、プログラムは、上述の実施形態の画像処理のための方法を実施するためにモバイル端末のプロセッサによって実行される。
モバイル端末は、画像処理回路をさらに含み、画像処理回路は、ハードウェアおよび/またはソフトウェア構成要素の使用によって実装されてもよく、画像信号処理(ISP)パイプラインを定義する様々な処理ユニットを含んでもよい。図7は、一実施形態による画像処理回路の概略図を示す。図7に示すように、本開示の実施形態に関連する画像処理技術の各態様は、便宜上の説明のためにのみ示されている。
図7に示すように、画像処理回路は、ISPユニット940と制御論理ユニット950を含む。撮像機器910によって取り込まれた画像データは、最初にISPユニット940によって処理され、ISPユニット940は画像データを解析して、ISPユニットおよび/または撮像機器910の1つまたは複数の制御パラメータを決定するために構成可能な画像統計情報を取り込む。撮像機器910は具体的には2つのカメラを含むことができ、各カメラは1つまたは複数のレンズ912と画像センサ914とを含むことができる。画像センサ914は、カラーフィルタアレイ(例えば、ベイヤーフィルタ)を含むことができ、画像センサ914は、画像センサ914の各撮像ピクセルによって取り込まれた光強度および波長情報を取得し、ISPユニット940に処理可能な元の画像データのセットを提供することができる。センサ920は、センサ920のインターフェースタイプに基づいて、ISPユニット940に元の画像データを提供することができる。センサ920のインターフェースは、標準モバイル撮像アーキテクチャ(SMIA)インターフェース、別のシリアルまたはパラレルカメラインターフェース、またはインターフェースの組み合わせを採用してもよい。
ISPユニット940は、複数のフォーマットに従ってピクセルごとに元の画像データを処理する。例えば、各画像ピクセルのビット深度は8、10、12、または14ビットである。ISPユニット940は、元の画像データに対して1つまたは複数の画像処理操作を実行し、画像データに関する画像統計情報を収集することができ、画像処理操作は、同じまたは異なるビット深度精度に従って実行されてもよい。
ISPユニット940は、画像メモリ930からピクセルデータをさらに受信することができる。例えば、センサ920のインターフェースは、元のピクセルデータを画像メモリ930に送り、画像メモリ930内の元のピクセルデータは、処理のためにISPユニット940に提供される。画像メモリ930は、メモリ装置、記憶機器、または電子機器内の独立した専用メモリの一部であってもよく、ダイレクトメモリアクセス(DMA)機能を含んでもよい。
センサ920のインターフェースまたは画像メモリ930から元の画像データを受信すると、ISPユニット940は、1つまたは複数の画像処理操作、例えば時間領域フィルタリングを実行することができる。処理された画像データは、表示前に他の処理のために画像メモリ930に送られてもよい。ISPユニット940は、画像メモリ930から処理されたデータを受信し、処理されたデータ上で元の領域および色空間赤、緑、青(RGB)およびYCbCrで画像データ処理を実行する。処理された画像データは、ユーザが見るため、および/またはグラフィック処理ユニット(GPU)によるさらなる処理のためにディスプレイ970に出力されてもよい。加えて、ISPユニット940の出力はさらに画像メモリ930に送られてもよく、ディスプレイ970は画像メモリ930から画像データを読み取ってもよい。一実施形態では、画像メモリ930は、1つまたは複数のフレームバッファを実装するように構成されてもよい。さらに、ISPユニット940の出力は、画像データを符号化/復号化するために符号器/復号器960に送られてもよい。符号化された画像データは格納されてもよく、ディスプレイ970に表示される前に解凍される。符号器/復号器960は、中央処理装置(CPU)またはGPUまたはコプロセッサによって実装されてもよい。
ISPユニット940によって決定された統計情報は、制御論理ユニット950に送られてもよい。例えば、統計情報は、画像センサ914の自動露出、自動ホワイトバランス、自動合焦、フラッシュ検出、黒レベル補正、レンズ912のシェーディング補正などの統計情報を含むことができる。制御論理ユニット950は、1つまたは複数のルーチン(例えば、ファームウェア)を実行するプロセッサおよび/またはマイクロコントローラを含むことができ、1つまたは複数のルーチンは、撮像機器910の制御パラメータおよびISPユニットの制御パラメータを受信した統計データに従って決定することができる。例えば、制御パラメータは、センサ920の制御パラメータ(例えば、ゲインおよび露出制御の積分時間)、カメラフラッシュ制御パラメータ、レンズ912のための制御パラメータ(例えば、焦点調整またはズームのための焦点距離)またはこれらのパラメータの組み合わせを含んでもよい。ISPユニットの制御パラメータは、自動ホワイトバランスおよび色調整(例えば、RGB処理中)およびレンズ912のシェーディング補正パラメータ用に構成されたゲインレベルおよび色補正マトリックスを含んでもよい。
明細書の説明において、「実施形態」、「いくつかの実施形態」、「例」、「特定の例」、「いくつかの例」などの用語を参照した説明は、その特定の特徴、構造、材料、または実施形態もしくは例と組み合わせて説明される特徴を参照し、本開示の少なくとも1つの実施形態または例に含まれる。本明細書では、これらの用語は、同じ実施形態または例について常に概略的に表現されているわけではない。さらに、特定の記載された特徴、構造、材料、または特性は、任意の1つまたは複数の実施形態もしくは例において適切な方法で組み合わせることができる。加えて、当業者は、明細書に記載された異なる実施形態もしくは例および異なる実施形態もしくは例の特徴を矛盾なく統合および組み合わせることができる。
さらに、「第1」および「第2」という用語は説明のためにのみ採用されており、相対的な重要性を示したり暗示したり、暗示的に示す技術的特徴の数を意味すると理解すべきではないしたがって、「第1」と「第2」によって定義される特徴は、少なくとも1つのそのような特徴の包含を明示的または暗黙的に示してもよい。本開示の説明において、「複数の」は、特に明確かつ具体的に限定されない限り、少なくとも2つ、例えば2つおよび3つを意味する。
別の方法でフローチャートまたは本明細書で説明されたプロセスまたは方法は、特定の論理機能またはプロセスのステップを実現するように構成された1つまたは複数の実行可能命令のコードを含むモジュール、セグメントまたは部分を表すと理解することができ、さらに、本開示の好ましい実施モードの範囲は、本明細書に示されたまたは説明された順序ではなく、基本的に同時に、または関連する機能に従って逆の順序で機能を実行することを含む、他の実施態様を含む。これは、本開示の実施形態の当業者によって理解されるべきである。
フローチャートで表される、または本明細書で別の方法で説明される論理および/またはステップは、例えば、論理機能を実現するように構成された実行可能命令の固定シーケンスリストと見なすことができ、命令実行システム、装置、または機器と組み合わせて使用するために、命令実行システム、装置、または機器(例えば、コンピューターベースのシステム、プロセッサまたは命令実行システム、装置または機器から命令を読み取り、命令を実行できる別のシステムを含むシステム)のためのコンピュータ可読媒体に具体的に実装することができる。本明細書では、「コンピュータ可読媒体」は、命令実行システム、装置、または機器と組み合わせて使用するために、命令実行システム、装置、または機器用のプログラムを含む、格納する、通信する、伝播する、または送信することができる任意の装置であってもよい。コンピュータ可読媒体のより具体的な例(非網羅的なリスト)には、1つまたは複数のワイヤを備えた電気接続部分(電子装置)、ポータブルコンピュータディスク(磁気装置)、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブルROM(EPROM)(またはフラッシュメモリ)、光ファイバー装置、およびポータブルコンパクトディスク読み取り専用メモリ(CD−ROM)が含まれる。加えて、コンピュータ可読媒体は、プログラムが印刷され得る紙または別の媒体であってもよく、それは、例えば、紙または他の媒体を光学的にスキャンし、編集、説明、または必要に応じて別の適切な方法で処理して、コンピュータメモリに保存するための電子的な方法でプログラムを取得できるからである。
本開示の各部分は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせによって実施できることを理解されたい。上記の実施モードでは、メモリに格納され、適切な命令実行システムによって実行されるソフトウェアまたはファームウェアによって複数のステップまたは方法を実施することができる。例えば、別の実施モードのようなハードウェアによる実施態様の場合、当技術分野で周知の技術、すなわち、データ信号の論理機能を実現するように構成された論理ゲート回路を備えたディスクリート論理回路、適切に組み合わされた論理ゲート回路を備えた特定用途向け集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)などの、いずれかまたは組み合わせを実施に採用することができる。
上述の実施形態の方法におけるステップのすべてまたは一部は、プログラムによって命令される関連ハードウェアを介して完了してもよいことを当業者は理解すべきであり、プログラムはコンピュータ可読記憶媒体に格納されてもよく、プログラムが実行されるとき、方法の実施形態のステップの1つまたは組み合わせが含まれる。
さらに、本開示の各実施形態の各機能ユニットは処理モジュールに統合されてもよく、各ユニットは物理的に独立して存在してもよく、2つまたは3つ以上のユニットもモジュールに統合されてもよい。統合モジュールは、ハードウェア形式で実施されてもよく、ソフトウェア機能モジュールの形式で実施されてもよい。ソフトウェア機能モジュールの形式で実施され、独立した製品として販売または使用される場合、統合モジュールはコンピュータ可読記憶媒体に格納されてもよい。
記憶媒体は、読み取り専用メモリ、磁気ディスク、光ディスクなどであってもよい。以上、本開示の実施形態について示し、または説明した。しかし、上記の実施形態は例示であり、本開示に対する限定として理解するべきではなく、当業者は本開示の範囲内で上記の実施形態の変形、修正、置換、変換を行うことができることを理解することができる。

Claims (15)

  1. 画像処理のための方法であって、
    主カメラによりn個のフレームの第1の画像を取得し、補助カメラにより補助画像を取得するステップであって、nは2以上の自然数であり、前記n個のフレームの第1の画像は基本フレーム画像のフレームを含み、前記補助カメラにより撮影された前記補助画像および前記主カメラにより撮影された前記基本フレーム画像は同期して撮影される、ステップと、
    主画像のフレームを取得するために、前記n個のフレームの第1の画像に対して合成ノイズ低減を実行するステップと、
    前記主画像および前記補助画像に従って前記主画像の奥行き情報を計算するステップと、
    必要な第2の画像を取得するために、前記主画像の前記奥行き情報に従って前記主画像にぼかし処理を実行するステップと、
    を含む、画像処理のための方法。
  2. 前記主カメラによって撮影された前記n個のフレームの第1の画像を取得するステップは、
    撮影操作の検出に応答して、前記主カメラおよび前記補助カメラの各々が複数のフレームの撮影画像を取得するように、前記主カメラおよび前記補助カメラを同期して撮影するように制御するステップと、
    前記複数のフレームの撮影画像から、連続して撮影されたn個のフレームの撮影画像を前記n個のフレームの第1の画像として選択するステップと、
    前記n個のフレームの第1の画像の解像度に従って、前記n個のフレームの第1の画像における前記基本フレーム画像の前記フレームを決定するステップと、
    を含む、請求項1に記載の画像処理のための方法。
  3. 前記主カメラにより前記n個のフレームの第1の画像を取得するステップの前に、
    周囲輝度に従って、2つのカメラの前記主カメラおよび前記補助カメラを決定するステップをさらに含む、請求項1に記載の画像処理のための方法。
  4. 前記2つのカメラは、第1のカメラおよび第2のカメラを含み、前記第1のカメラの解像度は、前記第2のカメラの解像度よりも高く、前記方法は、
    前記周囲輝度がしきい値輝度よりも高い場合に、前記第1のカメラを前記主カメラとして決定し、前記第2のカメラを前記補助カメラとして決定するステップと、
    前記周囲輝度が前記しきい値輝度以下である場合に、前記第2のカメラを前記主カメラとして決定し、前記第1のカメラを前記補助カメラとして決定するステップと、
    をさらに含む、請求項3に記載の画像処理のための方法。
  5. 前記周囲輝度に従って前記2つのカメラの前記主カメラおよび前記補助カメラを決定するステップの後に、
    前記周囲輝度に従って前記主カメラに対応する合成フレーム番号nを決定するステップであって、nは前記周囲輝度と負の関係を形成し、2〜6の範囲の値を有する、ステップをさらに含む、請求項3に記載の画像処理のための方法。
  6. 前記周囲輝度に従って前記ダブルカメラの前記主カメラおよび前記補助カメラを決定するステップの前に、
    前記2つのカメラの国際標準化機構(ISO)値を読み取るステップと、
    前記2つのカメラの前記読み取られたISO値に従って前記周囲輝度を決定するステップと、
    をさらに含む、請求項3に記載の画像処理のための方法。
  7. 前記補助カメラの解像度は前記主カメラの解像度よりも低く、前記補助カメラのみが合焦に採用される、請求項1に記載の画像処理のための方法。
  8. クローズショットが撮影される場合に、広角カメラが前記主カメラとして使用され、望遠カメラが前記補助カメラとして使用され、ロングショットが撮影される場合に、前記望遠カメラが前記主カメラとして使用され、前記広角カメラが前記補助カメラとして使用される、請求項1に記載の画像処理のための方法。
  9. 主画像のフレームを取得するために、前記n個のフレームの第1の画像に対して合成ノイズ低減を実行するステップの後であって、かつ、前記主画像および前記補助画像に従って前記主画像の奥行き情報を計算するステップの前に、前記方法は、
    撮影モードおよび前記主カメラの解像度に従って主画像解像度を決定し、前記撮影モードおよび前記補助カメラの解像度に従って補助画像解像度を決定するステップと、
    前記主画像解像度に従って前記主カメラの前記解像度を調整し、前記補助画像解像度に従って前記補助画像の前記解像度を調整するステップと、
    をさらに含む、請求項1に記載の画像処理のための方法。
  10. 画像処理のための装置であって、
    主カメラによりn個のフレームの第1の画像を取得し、補助カメラにより補助画像を取得するように構成された取得モジュールであって、nは2以上の自然数であり、前記n個のフレームの第1の画像は基本フレーム画像のフレームを含み、前記補助カメラにより撮影された前記補助画像および前記主カメラにより撮影された前記基本フレーム画像は同期して撮影される、取得モジュールと、
    主画像のフレームを取得するために、前記n個のフレームの第1の画像に対して合成ノイズ低減を実行するように構成されたノイズ低減モジュールと、
    前記主画像および前記補助画像に従って前記主画像の奥行き情報を計算するように構成された計算モジュールと、
    必要な第2の画像を取得するために、前記主画像の前記奥行き情報に従って前記主画像にぼかし処理を実行するように構成された処理モジュールと、
    を含む、画像処理のための装置。
  11. 前記取得モジュールは、
    撮影操作の検出に応答して、前記主カメラおよび前記補助カメラの各々が複数のフレームの撮影画像を取得するように、前記主カメラおよび前記補助カメラを同期して撮影するように制御するように構成された撮影ユニットと、
    前記主カメラの前記複数のフレームの撮影画像から、連続して撮影されたn個のフレームの撮影画像を前記n個のフレームの第1の画像として選択し、前記n個のフレームの第1の画像の解像度に従って、前記n個のフレームの第1の画像における前記基本フレーム画像の前記フレームを決定するように構成された第1の選択ユニットと、
    前記補助カメラの前記複数のフレームの撮影画像から、前記基本フレーム画像と同期して撮影された撮影画像のフレームを前記補助画像として選択するように構成された第2の選択ユニットと、
    を含む、請求項10に記載の画像処理のための装置。
  12. 周囲輝度に従って前記ダブルカメラの前記主カメラおよび前記補助カメラを決定し、前記周囲輝度に従って前記主カメラに対応する合成フレーム番号nを決定するように構成された決定モジュールであって、nは前記周囲輝度と負の関係を形成し、2〜6の範囲の値を有する、決定モジュールをさらに含む、請求項10に記載の画像処理のための装置。
  13. 前記2つのカメラの国際標準化機構(ISO)値を読み取り、前記2つのカメラの前記読み取られたISO値に従って前記周囲輝度を決定するように構成された読み取りモジュールをさらに含む、請求項12に記載の画像処理のための装置。
  14. プロセッサと、命令を格納するメモリとを含み、前記命令が、前記プロセッサによって実行されると、前記プロセッサに請求項1から9のいずれか一項に記載の方法を実行させる、画像処理のための装置。
  15. コンピュータプログラムが格納され、前記コンピュータプログラムが、コンピュータによって実行されて、請求項1から9のいずれか一項に記載の方法を実施する、コンピュータ可読記憶媒体。
JP2020514542A 2017-11-30 2018-11-09 画像処理のための方法および装置 Active JP6935587B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711243997.3A CN107948520A (zh) 2017-11-30 2017-11-30 图像处理方法和装置
CN201711243997.3 2017-11-30
PCT/CN2018/114920 WO2019105206A1 (en) 2017-11-30 2018-11-09 Method and device for image processing

Publications (2)

Publication Number Publication Date
JP2020533697A true JP2020533697A (ja) 2020-11-19
JP6935587B2 JP6935587B2 (ja) 2021-09-15

Family

ID=61947130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020514542A Active JP6935587B2 (ja) 2017-11-30 2018-11-09 画像処理のための方法および装置

Country Status (6)

Country Link
US (1) US10825146B2 (ja)
EP (1) EP3499863B1 (ja)
JP (1) JP6935587B2 (ja)
KR (1) KR102306283B1 (ja)
CN (1) CN107948520A (ja)
WO (1) WO2019105206A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN107948520A (zh) 2017-11-30 2018-04-20 广东欧珀移动通信有限公司 图像处理方法和装置
CN108769545A (zh) * 2018-06-12 2018-11-06 Oppo(重庆)智能科技有限公司 一种图像处理方法、图像处理装置及移动终端
CN108989671A (zh) * 2018-07-25 2018-12-11 Oppo广东移动通信有限公司 图像处理方法、装置和电子设备
CN109377460A (zh) * 2018-10-15 2019-02-22 Oppo广东移动通信有限公司 一种图像处理方法、图像处理装置及终端设备
US10902265B2 (en) * 2019-03-27 2021-01-26 Lenovo (Singapore) Pte. Ltd. Imaging effect based on object depth information
CN110072051B (zh) 2019-04-09 2021-09-03 Oppo广东移动通信有限公司 基于多帧图像的图像处理方法和装置
CN110276730B (zh) * 2019-06-13 2023-03-28 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备
KR20210141070A (ko) 2020-05-15 2021-11-23 삼성전자주식회사 복수의 카메라를 이용한 이미지 촬영 방법 및 그 전자 장치
US11720782B2 (en) 2020-06-15 2023-08-08 Samsung Electronics Co., Ltd. Multi-sensor, multi-view, multi-frame, multi-task synthetic image fusion engine for mobile imaging system
CN113301320B (zh) * 2021-04-07 2022-11-04 维沃移动通信(杭州)有限公司 图像信息处理方法、装置和电子设备
CN113052898B (zh) * 2021-04-08 2022-07-12 四川大学华西医院 基于主动式双目相机的点云和强反光目标实时定位方法
CN113240964B (zh) * 2021-05-13 2023-03-31 广西英腾教育科技股份有限公司 一种心肺复苏教学机器
CN113747028B (zh) * 2021-06-15 2024-03-15 荣耀终端有限公司 一种拍摄方法及电子设备
WO2024034856A1 (ko) * 2022-08-12 2024-02-15 삼성전자주식회사 이미지를 제공하는 방법 및 이를 지원하는 전자 장치
KR20240047294A (ko) 2022-10-04 2024-04-12 오영식 이동하는 카메라로 다중 촬영한 사진들의 해상도 향상 방법, 장치, 및 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009152803A (ja) * 2007-12-19 2009-07-09 Canon Inc 撮像装置及びその制御方法及びプログラム
JP2010187250A (ja) * 2009-02-13 2010-08-26 Fujitsu Ltd 画像補正装置、画像補正プログラムおよび画像撮影装置
JP2011151729A (ja) * 2010-01-25 2011-08-04 Sharp Corp 画像処理装置、画像撮影装置、画像表示装置、およびプログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7859588B2 (en) * 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
US8749635B2 (en) * 2009-06-03 2014-06-10 Flir Systems, Inc. Infrared camera systems and methods for dual sensor applications
US8542287B2 (en) * 2009-03-19 2013-09-24 Digitaloptics Corporation Dual sensor camera
CA2771851C (en) * 2011-04-12 2018-07-24 Research In Motion Limited Camera flash for improved color balance
JP5932666B2 (ja) * 2011-07-19 2016-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像符号化装置とその集積回路、および画像符号化方法
WO2013054160A1 (en) 2011-10-11 2013-04-18 Sony Ericsson Mobile Communications Ab Light sensitive, low height, and high dynamic range camera
JP5240349B2 (ja) * 2011-11-14 2013-07-17 カシオ計算機株式会社 画像合成装置、及びプログラム
CN104253939A (zh) * 2013-06-27 2014-12-31 聚晶半导体股份有限公司 调整对焦位置的方法及电子装置
US9344619B2 (en) 2013-08-30 2016-05-17 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image
JP6376618B2 (ja) * 2014-05-15 2018-08-22 華為技術有限公司Huawei Technologies Co.,Ltd. マルチフレームノイズ低減方法および端末
CN104065854B (zh) 2014-06-18 2018-08-10 联想(北京)有限公司 一种图像处理方法及一种电子设备
CN104065930B (zh) * 2014-06-30 2017-07-07 青岛歌尔声学科技有限公司 集成摄像头模组和光传感器的视觉辅助方法及装置
CN104333700B (zh) * 2014-11-28 2017-02-22 广东欧珀移动通信有限公司 一种图像虚化方法和图像虚化装置
US9386230B1 (en) * 2015-06-12 2016-07-05 Google Inc. Day and night detection based on one or more of illuminant detection, lux level detection, and tiling
CN105100615B (zh) * 2015-07-24 2019-02-26 青岛海信移动通信技术股份有限公司 一种图像的预览方法、装置及终端
CN106550184B (zh) 2015-09-18 2020-04-03 中兴通讯股份有限公司 照片处理方法及装置
KR102480600B1 (ko) * 2015-10-21 2022-12-23 삼성전자주식회사 이미지 처리 장치의 저조도 화질 개선 방법 및 상기 방법을 수행하는 이미지 처리 시스템의 동작 방법
CN105763813A (zh) * 2016-04-05 2016-07-13 广东欧珀移动通信有限公司 一种拍照方法、装置及智能终端
US10482574B2 (en) * 2016-07-06 2019-11-19 Gopro, Inc. Systems and methods for multi-resolution image stitching
US10331190B2 (en) * 2016-11-09 2019-06-25 Microsoft Technology Licensing, Llc Detecting user focus on hinged multi-screen device
US20180139369A1 (en) * 2016-11-16 2018-05-17 Motorola Mobility Llc Backlit face detection
CN106488137A (zh) * 2016-11-29 2017-03-08 广东欧珀移动通信有限公司 双摄像头对焦方法、装置和终端设备
CN108540636A (zh) * 2017-03-06 2018-09-14 中兴通讯股份有限公司 一种基于双摄像头的拍照方法及装置
CN106791341A (zh) 2017-03-27 2017-05-31 上海与德科技有限公司 基于双摄像头的拍摄方法及装置
CN107220951A (zh) 2017-05-31 2017-09-29 广东欧珀移动通信有限公司 人脸图像降噪方法、装置、存储介质及计算机设备
CN107948520A (zh) 2017-11-30 2018-04-20 广东欧珀移动通信有限公司 图像处理方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009152803A (ja) * 2007-12-19 2009-07-09 Canon Inc 撮像装置及びその制御方法及びプログラム
JP2010187250A (ja) * 2009-02-13 2010-08-26 Fujitsu Ltd 画像補正装置、画像補正プログラムおよび画像撮影装置
JP2011151729A (ja) * 2010-01-25 2011-08-04 Sharp Corp 画像処理装置、画像撮影装置、画像表示装置、およびプログラム

Also Published As

Publication number Publication date
JP6935587B2 (ja) 2021-09-15
WO2019105206A1 (en) 2019-06-06
KR20200041378A (ko) 2020-04-21
EP3499863B1 (en) 2021-12-22
EP3499863A1 (en) 2019-06-19
US20190164256A1 (en) 2019-05-30
KR102306283B1 (ko) 2021-09-29
US10825146B2 (en) 2020-11-03
CN107948520A (zh) 2018-04-20

Similar Documents

Publication Publication Date Title
JP6935587B2 (ja) 画像処理のための方法および装置
JP7015374B2 (ja) デュアルカメラを使用する画像処理のための方法および移動端末
JP7145208B2 (ja) デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体
KR102266649B1 (ko) 이미지 처리 방법 및 장치
CN107948519B (zh) 图像处理方法、装置及设备
KR102306272B1 (ko) 듀얼 카메라 기반 이미징 방법, 이동 단말기 및 저장 매체
JP6999802B2 (ja) ダブルカメラベースの撮像のための方法および装置
US8792019B2 (en) Video creation device, video creation method and non-transitory computer-readable storage medium
KR102229811B1 (ko) 단말기를 위한 촬영 방법 및 단말기
WO2017045558A1 (zh) 景深调节方法、装置及终端
KR20070121717A (ko) 컬러 디지털 이미지를 사용하여 선명도 변경과 같은 액션을제어하는 방법
CN108156369B (zh) 图像处理方法和装置
CN107872631B (zh) 基于双摄像头的图像拍摄方法、装置及移动终端
CN110177212B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN116324882A (zh) 多相机系统中的图像信号处理
JPH10210287A (ja) デジタルカメラ
JPH10210288A (ja) デジタルカメラ
JPH10210359A (ja) デジタルカメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210825

R150 Certificate of patent or registration of utility model

Ref document number: 6935587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250