JP7145208B2 - デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体 - Google Patents

デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体 Download PDF

Info

Publication number
JP7145208B2
JP7145208B2 JP2020518405A JP2020518405A JP7145208B2 JP 7145208 B2 JP7145208 B2 JP 7145208B2 JP 2020518405 A JP2020518405 A JP 2020518405A JP 2020518405 A JP2020518405 A JP 2020518405A JP 7145208 B2 JP7145208 B2 JP 7145208B2
Authority
JP
Japan
Prior art keywords
camera
image
depth information
auxiliary
blurring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020518405A
Other languages
English (en)
Other versions
JP2020537382A (ja
Inventor
オウヤン、ダン
タン、グオフイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020537382A publication Critical patent/JP2020537382A/ja
Application granted granted Critical
Publication of JP7145208B2 publication Critical patent/JP7145208B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Description

本開示は、移動端末の技術分野に関し、特に、デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体に関する。
デュアルカメラは、移動端末機器で広く使用されるようになっている。デュアルカメラは通常、望遠レンズと広角レンズとを含む。望遠レンズは写真を撮るために使用され、広角レンズは、それに続く画像ぼかし処理のために、写真の深度情報の計算を支援するのに使用される。
既存のデュアルカメラは、高輝度環境では良好な画像効果を有するが、暗い環境では画像効果が低い。
本開示の実施形態の第1の態様によれば、デュアルカメラベースの撮像のための方法が開示され、デュアルカメラは第1のカメラと第2のカメラとを含み、第1のカメラの解像度は第2のカメラの解像度よりも高く、第2のカメラのISOは第1のカメラのISOよりも高い。本方法は、周囲輝度に従ってデュアルカメラの中から主カメラと補助カメラとが決定される動作と、主カメラで撮影された第1の画像に従って第3の画像が生成される動作と、第1の画像と補助カメラで撮影された第2の画像とに従って第3の画像の深度情報が計算される動作と、第4の画像を取得するために第3の画像の深度情報に従って第3の画像に対してぼかし処理が行われる動作と、を含む。
本開示の実施形態のデュアルカメラベースの撮像のための方法によれば、主カメラと補助カメラの性能を現在の周囲輝度と合致させることができ、画像効果が保証され、従来技術の暗い環境でのデュアルカメラの画像効果が比較的低いという技術的問題が解決される。
本開示の実施形態の第2の態様によれば、移動端末が開示される。本移動端末は、第1のカメラと、第2のカメラと、プロセッサと、コンピュータプログラムを格納するメモリとを含む。第1のカメラは第2のカメラの解像度よりも高い解像度と、第2のカメラの感度よりも低い感度とを有し、コンピュータプログラムは、プロセッサによって実行されると、プロセッサに方法を実施させる。
本開示の実施形態の第3の態様によれば、コンピュータ可読記憶媒体が開示され、本コンピュータ可読記憶媒体にはコンピュータプログラムが格納されてもよく、コンピュータプログラムは第1の態様によるデュアルカメラベースの撮像のための方法を実施するためにプロセッサによって実行され得る。
本開示のその他の態様および利点は、一部は以下の説明に提示され、一部は、以下の説明から明らかになり、または本開示を実施することによって理解されるであろう。
本開示の上記および/またはその他の態様および利点は、図面と組み合わせて以下の実施形態に対してなされる説明を読めば明らかになり、理解しやすくなるであろう。
本開示の一実施形態によるデュアルカメラベースの撮像のための方法を示すフローチャートである。 三角測量測距原理を示す概略図である。 視差画像を示す概略図である。 本開示の一実施形態によるデュアルカメラベースの撮像のための別の方法を示すフローチャートである。 本開示の一実施形態によるデュアルカメラベースの撮像装置を示す構造図である。 本開示の別の実施形態による端末機器を示す構造図である。 一実施形態による画像処理回路を示す概略図である。
本開示の実施形態について以下で詳細に説明する。図面には実施形態の例が示されており、同一もしくは類似の参照符号は、常に同一もしくは類似の構成要素または同一もしくは類似の機能を備えた構成要素を表す。図面と組み合わせて以下で説明される実施形態は例示であり、本開示を説明するためのものであり、本開示に対する限定として理解されるべきではない。
本開示の実施形態によるデュアルカメラベースの撮像のための方法および装置について、図面と組み合わせて以下で説明する。
本開示の実施形態による撮像方法を実行するための装置は、デュアルカメラを備えたハードウェアデバイス、例えば、携帯電話、タブレットコンピュータ、携帯情報端末、およびウェアラブルデバイスであり得る。ウェアラブルデバイスは、スマートバンド、スマートウォッチ、スマートグラスなどであり得る。
デュアルカメラを備えたハードウェアデバイスは撮影セットを含み、撮影セットは第1のカメラと第2のカメラとを含む。第1のカメラと第2のカメラとは各々、レンズと、イメージセンサと、ボイス・コイル・モータとを備える。デュアルカメラの第1のカメラと第2のカメラとが各々カメラコネクタと接続されているので、ボイス・コイル・モータはカメラコネクタによって提供される電流値に従って駆動され、第1のカメラと第2のカメラとは、レンズとイメージセンサとの間の距離を調整して合焦を実現するようにボイス・コイル・モータによって駆動される。
実施形態で提供されるデュアルカメラでは、第1のカメラの解像度は第2のカメラの解像度よりも高く、第2のカメラの感度(例えばISO値)は第1のカメラの感度よりも高い。したがって、最初は、第2のカメラだけが合焦に使用され得る。第2のカメラが合焦を完了すると、第2のカメラのモータの第2の駆動電流値が取得される。さらに、第1のカメラと第2のカメラとが同じ集束距離を有するという条件下で、第1のカメラのモータの第1の駆動電流値は第2の駆動電流値に従って決定される。次いで、第1の駆動電流値は、合焦のために第1のカメラを駆動するのに使用される。第2のカメラは解像度が比較的低く、よって画像処理速度が高いので、合焦速度が増し得、先行技術のデュアルカメラの合焦速度が低いという技術的問題が解決される。
第1の態様では、デュアルカメラベースの撮像のための方法が提供され、デュアルカメラは第1のカメラと第2のカメラとを含み、第1のカメラは第2のカメラの解像度よりも高い解像度を有し、第2のカメラの感度よりも低い感度を有し、本方法は以下の動作を含む。周囲輝度に従ってデュアルカメラの中から主カメラと補助カメラとが決定される。主カメラで撮影された第1の画像に従って第3の画像が生成される。第1の画像と補助カメラで撮影された第2の画像とに従って第3の画像の深度情報が計算される。第4の画像を取得するために第3の画像の深度情報に従って第3の画像に対してぼかし処理が行われる。
一例では、周囲輝度に従ってデュアルカメラの中から主カメラと補助カメラとを決定することに関して、周囲輝度が輝度閾値よりも高い場合、第1のカメラは主カメラであると判断されてもよく、第2のカメラは補助カメラであると判断され、または周囲輝度が輝度閾値以下である場合、第2のカメラは主カメラであると判断され、第1のカメラは補助カメラであると判断され得る。
一例では、第1の画像に従って第3の画像を生成することに関して、主カメラが補助カメラの画角(field angle of view(FOV))以下の画角を有する場合、第1の画像は第3の画像であると判断され得る。
一例では、第1の画像に従って第3の画像を生成することに関して、主カメラが補助カメラの画角(FOV)よりも大きい画角を有する場合、第1の画像は、第2の画像と同じ視野を有する第3の画像を取得するために切り取られ得る。
一例では、周囲輝度を決定することに関して、第1のカメラと第2のカメラとの感度の国際標準化機構(ISO)値が読み取られてもよく、周囲輝度はISO値に従って決定され得る。
一例では、主カメラを使用して第1の画像を撮影し、補助カメラを使用して第2の画像を撮影することに関して、以下の動作が行われ得る。第2のカメラは、合焦のために駆動され得る。第2のカメラが合焦を完了したことに応答して、第2のカメラのモータの第2の駆動電流値が取得され得る。第1のカメラのモータの第1の駆動電流値は、第2の駆動電流値に従って決定され得る。第1のカメラは、第1の駆動電流値を使用して合焦のために駆動され得る。
一例では、第1の画像と第2の画像とに基づいて第3の画像の深度情報を計算することに関して、第1の画像内と第2の画像内の両方の複数の点について、第1の画像と第2の画像との間の複数の点の各々の変位が計算され、変位に関連した情報が深度情報であると見なされ得る。
一例では、第3の画像の深度情報に従って第3の画像に対してぼかし処理を行うことに関して、以下の動作が行われ得る。第3の画像の前景領域と背景領域が決定され得る。深度情報と合焦領域とに従って前景領域の第1の深度情報と背景領域の第2の深度情報とが取得され得る。第1の深度情報と第2の深度情報とに従ってぼかし強度が生成され得る。ぼかし強度に従って第3の画像の背景領域に対してぼかし処理が行われ得る。
一例では、ぼかし強度に従って第3の画像の背景領域に対してぼかし処理を行うことに関して、第3の画像の背景領域内の各画素のぼかし係数が、ぼかし強度と各画素の深度情報とに従って取得されてもよく、各画素のぼかし係数に従って第3の画像の背景領域に対してぼかし処理が行われ得る。ぼかし係数はぼかし強度に関連し、ぼかし係数が高いほどぼかし強度が高い。
一例では、第3の画像の深度情報に従って第3の画像に対してぼかし処理を行うことに関して、以下の動作が行われ得る。第3の画像の背景領域が決定され得る。深度情報と合焦領域とに従って背景領域の第2の深度情報が取得され得る。第3の画像の背景領域の第2の深度情報と合焦領域の深度情報との差が取得され得る。対応するぼかし強度を取得するために、差とぼかし強度との間の事前に格納されたマッピング関係が、差に従って照会され得る。対応するぼかし強度に従って第3の画像の背景領域に対してぼかし処理が実行され得る。
一例では、主カメラを使用して第1の画像を撮影し、補助カメラを使用して第2の画像を撮影することに関して、以下の動作が行われ得る。主カメラと補助カメラとは、ビューファインディングと撮影を連続して行って、主カメラによって撮影されたnフレームの画像と補助カメラによって撮影されたmフレームの画像とをそれぞれ取得するために同時に使用され得る。第1の画像を取得するために、主カメラによって撮影されたnフレームの画像に対して合成ノイズ低減が行われ得る。第2の画像を取得するために、補助カメラによって撮影されたmフレームの画像に対して合成ノイズ低減が行われ得る。mとnとは1より大きい整数である。
一例では、合成ノイズ低減を行うことに関して、同じ位置の撮影画像の画素がその画素の値に従ってノイズポイントに対応すると判断されてもよく、ノイズポイント上の正しい色が推定されてもよく、ノイズポイントに対して画素置換処理が行われる。
一例では、合成ノイズ低減を行うことに関して、同じ位置の撮影画像の画素のg個の値が読み取られ、それらの値の加重平均が同じ位置の取得された画像の画素の値として計算され得る。
一例では、値の加重平均を計算することに関して、撮影画像の中から最高解像度の撮影画像が基本フレームとして選択されてもよく、基本フレームは他の撮影画像の重みよりも大きい重みを有する。
一例では、合成ノイズ低減を行う前に、本方法は、周囲輝度に従ってmとnの値を決定することをさらに含み得る。
一例では、第1の画像を取得するために主カメラによって撮影されたnフレームの画像に対して合成ノイズ低減を行い、第2の画像を取得するために補助カメラによって撮影されたmフレームの画像に対して合成ノイズ低減を行うことに関して、第1の画像を取得するために主カメラによって撮影されたnフレームの画像に対して第1のスレッドを介して合成ノイズ低減が行われ、一方で、第2の画像を取得するために補助カメラによって撮影されたmフレームの画像に対して第2のスレッドを介して合成ノイズ低減が行われ得る。
一例では、本方法は、ぼかし処理を行った後、自動的に、またはユーザの操作に応答して、デュアルカメラを装備した、またはデュアルカメラに通信可能に接続されたハードウェアデバイスのディスプレイに第4の画像を表示することが表示され得ること、をさらに含み得る。
第2の態様では、移動端末が提供される。本移動端末は、第1のカメラと、第2のカメラと、プロセッサと、コンピュータプログラムを格納するメモリとを含む。第1のカメラは第2のカメラの解像度よりも高い解像度と、第2のカメラの感度よりも低い感度とを有し、コンピュータプログラムは、プロセッサによって実行されると、プロセッサに、第1の態様およびその例で上述した、1つまたは複数の動作を実施させる。
一例では、第1のカメラは第2のカメラの画角と同じ画角(FOV)を有していてもよく、第1のカメラは16Mカメラであり、第2のカメラは5Mカメラであり得る。
第3の態様では、非一時的なコンピュータ可読記憶媒体が提供され得る。非一時的なコンピュータ可読記憶媒体にはコンピュータプログラムが格納され、コンピュータプログラムは、第1の態様およびその例で上述した、1つまたは複数の動作を実施するためにプロセッサによって実行される。
図1に、本開示の一実施形態によるデュアルカメラベースの撮像のための方法のフローチャートを示す。図1に示されるように、デュアルカメラベースの撮像の方法は、各ブロックに示される以下の動作を含む。この方法は、ブロック101から開始し得る。
ブロック101で、周囲輝度が決定される。
具体的には、1つの可能な実施態様では、周囲輝度を測定するために独立した測光装置が使用され得る。
別の可能な実施態様では、第1のカメラと第2のカメラとによって自動調整された感度、すなわち、国際標準化機構(ISO)値が読み取られてもよく、周囲輝度は読み取られたISO値に従って決定される。一般に、第1のカメラと第2のカメラとは同じISO値を使用するはずなので、対応する周囲輝度はISO値を使用して決定され得る。しかしながら、読み取られた第1のカメラのISO値と第2のカメラのISO値とが互いに異なる場合、対応する周囲輝度は、2つの値の平均値に従って決定され得る。
ISO値はカメラの感度を指示するために使用されることに留意されたい。一般的なISO値には、50、100、200、400、1,000などが含まれる。カメラは、周囲輝度に従ってISO値を自動調整し得る。したがって、本実施形態では、周囲輝度はISO値から推定され得る。一般に、十分な光の条件下ではISO値は50または100であり、不十分な光の条件下ではISO値は400以上になり得る。
ブロック102で、周囲輝度に従ってデュアルカメラの中から主カメラと補助カメラとが決定される。
具体的には、周囲輝度が輝度閾値よりも高い場合、第1のカメラは主カメラであると判断され、第2のカメラが補助カメラであると判断される。周囲輝度が輝度閾値以下である場合、第2のカメラは主カメラであると判断され、第1のカメラは補助カメラであると判断される。
これは、周囲輝度が輝度閾値以下である条件下では、写真撮影用の主カメラとして高解像度のカメラを使用すると、光が不十分なためにノイズがより多く生じ、それによって画像効果が低下するからである。したがって、光が不十分な場合には、画像のノイズを低減させ、画像効果を向上させるために、写真撮影用の主カメラとして高感度のカメラが使用され得る。
これに対して、周囲輝度が輝度閾値よりも高い条件下では、十分な光があり、高解像度のカメラの解像度は比較的高く、よってノイズが少ない比較的高解像度の画像を得ることができる。したがって、高解像度のカメラは写真撮影用の主カメラとして使用されてもよく、高感度のカメラは、比較的正確な深度情報を計算するために補助カメラとして使用される。したがって、画像効果が向上する。
ブロック103で、主カメラは第1の撮影画像を撮影するために使用され、補助カメラは第2の撮影画像を撮影するために使用される。
具体的には、主カメラと補助カメラとは各々、ビューファインディングと撮影を行って、撮像用の第1の撮影画像と深度情報を計算するための第2の撮影画像とをそれぞれ取得するために使用される。
撮影する前に、撮像画像がプレビューされ得る。1つの可能な実施態様では、主カメラによって取得された画像のみをプレビューでき、ユーザは、満足のいくプレビュー画像が表示されると、撮影ボタンをクリックし、それによって、主カメラと補助カメラの両方がビューファインディングと撮影を行うよう制御される。
ブロック104で、第1の撮影画像に従って撮像画像が生成され、第1の撮影画像と第2の撮影画像とに従って撮像画像の深度情報が計算される。
具体的には、第1の撮影画像と第2の撮影画像とはそれぞれ異なるカメラによって撮影され、2つのカメラの間には一定の距離があるため、視差が形成される。三角測量測距原理に従って、第1の撮影画像内と第2の撮影画像内の同じ物体の深度情報、すなわち、物体と、主カメラと補助カメラとが位置する平面との間の距離が計算され得る。
プロセスを明確にするために、三角測量測距原理について以下で簡単に紹介する。
実際のシナリオでは、ある視野特徴の深度は主に両眼視によって解像される。これは、デュアルカメラによって深度を解像する原理と同じである。本実施形態では、第2の撮影画像に従って撮像画像の深度情報を計算するための主な方法は、三角測量測距原理である。図2に、三角測量測距原理の概略図を示す。
図2には、実際の空間における被写体、2つのカメラの位置OおよびO、ならびに2つのカメラの焦点面が示されている。焦点面と2つのカメラが配置されている平面との間の距離はfである。2つのカメラは、焦点面の位置で結像を行い、それによって2つの撮影画像を取得する。
PとP’とは、同じ物体のそれぞれ異なる撮影画像内での位置であり、Pと対応する撮影画像の左境界との間の距離はXであり、P’と対応する撮影画像の左境界との間の距離はXである。OとOとはそれぞれ2つのカメラを表し、2つのカメラは同じ平面に位置し、距離Bを有する。
三角測量測距原理に基づき、図2で物体と2つのカメラが配置されている平面との間の距離Zは、次の関係を有する。
Figure 0007145208000001
これに基づき、
Figure 0007145208000002
が計算されてもよく、式中、dは異なる撮影画像内の同じ物体の位置間の距離の差である。Bとfとは固定値であるため、物体の距離Zはdに従って決定され得る。
当然ながら、主画像の深度情報が、三角測量測距法とは異なる別の方法で計算されてもよい。例えば、主カメラと補助カメラとが同じ場面を撮影する場合、場面内の物体とカメラとの間の距離は、主カメラと補助カメラの撮像の変位差、姿勢差などと比例関係を形成する。したがって、本開示の本実施形態では、距離Zは、この比例関係に従って取得され得る。
例えば、図3に示されるように、主カメラにより取得された主画像内と補助カメラにより取得された補助画像内の点の差の画像が計算され、図に視差画像で表されている。この画像は、2つの画像上の同じ点の変位差を示している。しかしながら、三角測量の変位差はZに正比例する。したがって、視差画像は、深度情報を含む被写界深度画像として直接使用される。
上記の解析に基づき、デュアルカメラが深度情報を取得する場合、異なる撮影画像内の同じ物体の位置が取得されることになるので、深度情報を取得するように構成された2つの画像が比較的近ければ、深度情報取得の効率と正確さが向上し得ることが分かる。
ブロック105で、必要なターゲット画像を取得するために撮像画像の深度情報に従って撮像画像に対してぼかし処理が行われる。
具体的には、撮像画像の深度情報が計算された後、撮像画像内の物体の深度情報に従って、各物体が前景物体であるかそれとも背景物体であるかが判断され得る。一般に、深度情報が、物体が主カメラと補助カメラとが位置する平面に比較的近く、深度値が比較的小さいことを示す場合、物体は前景物体であると判断されてもよく、そうでない場合、物体は背景物体である。
ターゲット画像を取得するために認識された背景に対してぼかし処理が行われ得る。ターゲット画像では、前景がより強調され、背景はぼかされ、前景が合焦された画像効果が達成される。
深度情報に従って撮像画像の背景領域に対してぼかし処理が行われる場合、以下の処理方法が使用され得る。
深度情報と合焦領域とに従って前景領域の第1の深度情報と背景領域の第2の深度情報とが取得され得る。第1の深度情報と第2の深度情報とに従ってぼかし強度が生成され得る。ぼかし強度に従って撮像画像の背景領域に対してぼかし処理が行われる。このようにして、異なる深度情報に従って異なるぼかし具合が実現され、ぼかし画像に対してより自然な重層効果が達成され得る。
被写体が合焦された後、被写体が位置する合焦領域の前後に眼にとっての高解像度画像が形成され得る空間深度範囲が、被写界深度である。合焦領域の前の画像の被写界深度範囲が前景領域の第1の深度情報であり、合焦領域の後の高解像度画像の被写界深度範囲が背景領域の第2の深度情報であることが理解できる。
異なる実施モードのぼかし強度に従って撮像画像の背景領域に対してぼかし処理が行われ得る。
1つの可能な実施態様では、各画素のぼかし係数が、撮像画像の背景領域内の各画素のぼかし強度と深度情報とに従って取得される。ぼかし係数はぼかし強度に関連し、ぼかし係数が高いほどぼかし強度が高い。例えば、各画素のぼかし係数を取得するために撮像画像の背景領域内の各画素のぼかし強度と深度情報との積が計算されてもよく、各画素のぼかし係数に従って撮像画像の背景領域に対してぼかし処理が行われる。
別の可能な実施態様では、第2の深度情報と合焦領域の深度情報との間の差分値が大きいほど、背景領域と合焦領域との間の対応する距離が長く、背景領域と合焦領域との間の関連性が低く、したがって、対応するぼかし強度が高い。この例では、第2の深度情報と合焦領域の深度情報との差分値とぼかし強度との間のマッピング関係が事前に格納され得る。マッピング関係では、第2の深度情報と合焦領域の深度情報との間の差分値が大きいほど、対応するぼかし強度が高い。したがって、撮像画像の背景領域の第2の深度情報と合焦領域の深度情報との間の差分値が取得され、対応するぼかし強度を取得するために差分値に従ってマッピング関係が照会され、ぼかし強度に従って深度情報に対応する背景領域がぼかされる。
本実施形態では、周囲輝度が決定された後、周囲輝度に従ってデュアルカメラの中から主カメラと補助カメラとが決定される。主カメラは第1の撮影画像を撮影するために使用され、補助画像は第2の撮影画像を撮影するために使用される。撮像画像は、第1の撮影画像に従って生成される。撮像画像の深度情報は、第2の撮影画像に従って計算される。必要なターゲット画像を取得するために撮像画像の深度情報に従って撮像画像に対してぼかし処理がさらに行われる。高解像度のカメラは第1のカメラであると判断され、高感度のカメラは第2のカメラであると判断され、第1のカメラと第2のカメラとは各々周囲輝度に従って主カメラと補助カメラとに切り替えられ得るので、主カメラと補助カメラの性能を現在の周囲輝度と合致させることができ、画像効果が保証される。したがって、先行技術の暗い環境でのデュアルカメラの画像効果が比較的低いという技術的問題が解決される。
前述の実施形態を明確に説明するために、一実施形態は、デュアルカメラベースの撮像のための別の方法を提供する。図4に、本開示の一実施形態によるデュアルカメラベースの撮像のための別の方法を示すフローチャートを示す。
図4に示されるように、この方法は、各ブロックに示される以下の動作を含み得る。この方法は、ブロック101から開始し得る。
ブロック301で、周囲輝度が決定され、周囲輝度に従ってデュアルカメラの中から主カメラと補助カメラとが決定される。
デュアルカメラは第1のカメラと第2のカメラとを含み、第1のカメラの解像度は第2のカメラの解像度よりも高く、第2のカメラの感度(例えばISO値)は第1のカメラの感度よりも高い。
周囲輝度が輝度閾値よりも高い場合、第1のカメラは主カメラであると判断され、第2のカメラが補助カメラであると判断され、周囲輝度が輝度閾値よりも低い場合、第2のカメラは主カメラであると判断され、第1のカメラは補助カメラであると判断される。
例えば、第1のカメラは16Mカメラであり、第2のカメラは5Mカメラまたはフォーインワン(four-in-one)5Mカメラであり得る。
フォーインワン5Mカメラは、4つの5Mカメラを組み合わせることによって得られ、単一の5Mカメラと比較してより高い測光性能を有することに留意されたい。
ブロック302で、主カメラは第1の撮影画像を撮影するために使用され、補助カメラは第2の撮影画像を撮影するために使用される。
具体的には、1つの可能な実施態様では、周囲輝度が輝度閾値以下である、すなわち、周囲輝度がさほど高くないという条件下で、画像効果が影響を受け、主カメラと補助カメラとによって取得された画像により多くのノイズが生じ得る。
画質を向上させるために、主カメラと補助カメラとの画像処理にマルチフレーム合成ノイズ低減方式が使用され得る。具体的には、主カメラと補助カメラとを決定した後、主カメラと補助カメラとは、ビューファインディングと撮影を連続して行って、主カメラによって撮影されたnフレームの撮影画像と補助カメラによって撮影されたmフレームの撮影画像とをそれぞれ取得するために同時に使用され得る。
第1の撮影画像を取得するために主カメラによって撮影されたnフレームの撮影画像に対して合成ノイズ低減が行われ、第2の撮影画像を取得するために補助カメラによって撮影されたmフレームの撮影画像に対して合成ノイズ低減が行われる。
マルチフレーム合成ノイズ低減プロセスを明確に理解しやすくするために、マルチフレーム合成ノイズ低減について以下で簡単に紹介する。
周囲光が不十分な場合、移動端末などの撮像装置は、通常、感度を自動的に高める方法を使用する。しかしながら、感度を高めるためのそのような方法は、画像により多くのノイズをもたらす。マルチフレーム合成ノイズ低減は、画像内のノイズポイントを低減させ、高感度条件で撮影された画像の品質を向上させることを目的とする。その原理は、ノイズポイントがランダムに配置されるという先験的な知識である。具体的には、複数のフレームの撮影画像が連続して撮影された後、同じ位置に現れるノイズポイントは、赤のノイズポイントであり得るか、または緑のノイズポイントもしくは白のノイズポイントであり得るか、またはノイズポイントがない場合さえもあり、よって、比較および選択が行われ得る。ノイズである画素(すなわち、ノイズポイント)は、同じ位置にある複数のフレームの撮影画像の画素の値に従って選択され得る。さらに、ノイズポイントが選択された後、色推定(すなわち、ノイズポイントの正しい色の推定)および画素置換処理が、ノイズポイント除去効果を達成する別のアルゴリズムに従ってノイズポイントに対してさらに行われ得る。このようなプロセスにより、きわめて低い画質損失度でノイズ低減効果が達成され得る。
例えば、マルチフレーム合成ノイズ低減のための比較的簡便な方法として、撮影画像の複数のフレームが取得された後、同じ位置にある複数のフレームの撮影画像の画素の値が読み取られてもよく、合成画像内の位置における画素の値を生成するためにこれらの画素の値の加重平均が計算される。このようにして、高解像度画像が取得され得る。
複数のフレームの撮影画像は、最高解像度画像のフレームを含み、これが基本フレームであると判断され得る。基本フレームについて、1つの可能な実施態様では、基本フレームの重みをその他の撮影画像の重みよりも高くし得る。すなわち、その他の撮影画像を参照して基本フレーム内のノイズポイントを認識および除去する機能が実質的に実現される。
マルチフレーム合成ノイズ低減の前に、周囲輝度に従ってマルチフレーム合成のためのフレーム数mとnが決定され得る。周囲輝度が低い場合、合成するフレーム数は多くなる。すなわち、mとnは周囲輝度と逆の関係にある。1つの可能な実施態様では、mとnの値は同じであり、2から6の範囲である。
例えば、
周囲輝度レベルが暗い場合、m=n=6、
周囲輝度レベルが一般的な場合、m=n=4、
周囲輝度レベルが明るい場合、m=n=2
である。
周囲輝度レベルの上記の分類およびmとnの値とは例示にすぎず、実施形態に対する限定を形成するためのものではないことに留意されたい。最適な周囲輝度レベルの分類方法およびmとnの値は限られた回数の試験を行えば決定できることを当業者は理解するであろう。
1つの可能な適用シナリオでは、比較的高い処理速度が必要である。マルチフレーム合成ノイズ低減を使用すると処理時間が長くなる可能性があるため、この適用シナリオではマルチスレッド並列処理機構が用いられ得る。
具体的には、マルチスレッド並列処理機構が開始されると、第1の撮影画像を取得するために第1のスレッドを介して主カメラによって撮影されたnフレームの撮影画像に対して合成ノイズ低減が行われ、一方で、第2の撮影画像を取得するために第2のスレッドを介して補助カメラによって撮影されたmフレームの撮影画像に対して合成ノイズ低減が行われる。
ブロック303で、主カメラの画角(FOV)が補助カメラのFOV以下であるかどうかが判断され、はいの場合、ブロック304が実行され、そうでない場合、ブロック305が実行される。
具体的には、FOVは、レンズによってカバーされ得る最大角度である。視野とカメラとの間の挟角がこの角度を超えた場合、撮像が実施されない可能性がある。本実施形態では、主カメラと補助カメラのFOVは同じでも異なっていてもよい。しかしながら、FOV値が異なるために、第1の撮影画像と第2の撮影画像とのビューファインディングの差が一致しない。言い換えれば、物体の一部が、第1の撮影画像と第2の撮影画像の一方にのみ撮像されている場合がある。深度計算時に、これらの物体の深度情報が計算されない場合がある。深度情報の計算を容易にするために、本実施形態では、第1の撮影画像および/または第2の撮影画像は、切り取られた画像が切り取られていない画像と同じ視界を有し得るか、または切り取られた画像同士が同じ視界を有し得るように切り取られ得るので、撮像画像の深度情報の正確さが保証される。
ブロック304で、主カメラのFOVが補助カメラのFOV以下である場合、第1の撮影画像が撮像画像であると判断される。
具体的には、主カメラのFOVが補助カメラのFOV以下である場合、主カメラと補助カメラは、通常、同じ平面上に位置するため、主カメラのビューファインディング範囲は補助カメラのビューファインディング範囲以下である。これに基づき、主カメラによって撮影された第1の撮影画像内の各物体は、補助カメラによって撮影された第2の撮影画像内に結像されるはずである。この場合、主カメラによって撮影された第1の撮影画像を切り取る必要はなく、第1の撮影画像は撮像画像であると直接判断され得る。
ブロック305で、主カメラのFOVが補助カメラのFOVよりも大きい場合、第1の撮影画像は、第2の撮影画像と同じ視界を有する撮像画像を取得するために切り取られる。
具体的には、主カメラのFOVが補助カメラのFOVよりも大きい場合、主カメラと補助カメラは、通常、同じ平面上に位置するため、主カメラのビューファインディング範囲は補助カメラのビューファインディング範囲以下である。これに基づき、主カメラによって撮影された第1の撮影画像内の物体の一部が、補助カメラによって撮影されない、すなわち、物体の一部が第2の撮影画像に存在しない可能性がある。この場合、主カメラによって撮影された第1の撮影画像は切り取られることになり、第2の撮影画像と同じ視界を有する切り取られた画像が撮像画像と見なされる。
ブロック306で、撮像画像の深度情報が、第2の撮影画像に従って計算される。
具体的には、撮像画像の深度情報は、第2の撮影画像内と第1の撮影画像内の同じ物体の位置ずれと、デュアルカメラのパラメータとに従って決定される。
具体的な計算プロセスは、上記の実施形態のブロック104に関する関連する説明から理解でき、これについてここでは詳述しない。
ブロック307で、必要なターゲット画像を取得するために撮像画像の深度情報に従って撮像画像に対してぼかし処理が行われる。
具体的には、撮像画像の深度情報が計算された後、撮像画像内の物体の深度情報に従って、各物体が前景物体であるかそれとも背景物体であるかが判断され得る。一般に、深度情報が、物体が主カメラと補助カメラとが位置する平面に比較的近く、深度値が比較的小さいことを示す場合、物体は前景物体であると判断されてもよく、そうでない場合、物体は背景物体である。さらに、ターゲット画像を取得するために認識された背景に対してぼかし処理が行われ得る。
本実施形態では、周囲輝度が決定された後、周囲輝度に従ってデュアルカメラの中から主カメラと補助カメラとが決定される。主カメラは第1の撮影画像を撮影するために使用され、補助画像は第2の撮影画像を撮影するために使用される。撮像画像は、第1の撮影画像に従って生成される。撮像画像の深度情報は、第2の撮影画像に従って計算される。必要なターゲット画像を取得するために撮像画像の深度情報に従って撮像画像に対してぼかし処理がさらに行われる。高解像度のカメラは第1のカメラであると判断され、高感度のカメラは第2のカメラであると判断され、第1のカメラと第2のカメラとは各々周囲輝度に従って主カメラと補助カメラとに切り替えられ得るので、主カメラと補助カメラの性能を現在の周囲輝度と合致させることができ、画像効果が保証される。したがって、先行技術の暗い環境でのデュアルカメラの画像効果が比較的低いという技術的問題が解決される。
上記の実施形態を実施するために、本開示は、デュアルカメラベースの撮像装置をさらに提供する。
図5に、本開示の一実施形態によるデュアルカメラベースの撮像装置の構造図を示す。この撮像装置は、デュアルカメラを備えた移動端末に適用され得る。デュアルカメラは第1のカメラと第2のカメラとを含み、第1のカメラの解像度は第2のカメラの解像度よりも高く、第2のカメラの感度(例えばISO値)は第1のカメラの感度よりも高い。
図5に示されるように、撮像装置は、測光モジュール41と、切り替えモジュール42と、撮影モジュール43と、生成モジュール44と、処理モジュール45とを含む。
測光モジュール41は、周囲輝度を決定するように構成される。
具体的には、測光モジュール41は、第1のカメラと第2のカメラとの読み取りISO値に従って周囲輝度を決定するように構成される。
切り替えモジュール42は、周囲輝度に従ってデュアルカメラの中から主カメラと補助カメラとを決定するように構成される。
具体的には、切り替えモジュール42は、周囲輝度が輝度閾値よりも高い場合、第1のカメラを主カメラであると判断し、第2のカメラを補助カメラであると判断し、周囲輝度が輝度閾値以下である場合、第2のカメラを主カメラであると判断し、第1のカメラを補助カメラであると判断する、ように構成される。
撮影モジュール43は、主カメラを使用して第1の画像を撮影し、補助カメラを使用して第2の画像を撮影するように構成される。
生成モジュール44は、第1の画像に従って第3の画像を生成し、第1の画像と第2の画像とに従って第3の画像の深度情報を計算するように構成される。
処理モジュール45は、第4の画像を取得するために第3の画像の深度情報に従って第3の画像に対してぼかし処理を行うように構成される。
さらに、本開示の実施形態の1つの可能な実施態様では、生成モジュール44は、主カメラのFOVが補助カメラのFOV以下である場合、第1の画像を第3の画像であると判断し、主カメラのFOVが補助カメラのFOVよりも大きい場合、第2の画像と同じ視界を有する第3の画像を取得するために第1の画像を切り取る、ように構成され得る。
上記の方法実施形態に関する説明および記述は、本実施形態の装置にも適用され、これについてここでは詳述しないことに留意されたい。
本実施形態では、周囲輝度が決定された後、周囲輝度に従ってデュアルカメラの中から主カメラと補助カメラとが決定され、主カメラは第1の画像を撮影するために使用され、補助画像は第2の画像を撮影するために使用され、第1の画像に従って第3の画像が生成され、第1の画像と第2の画像とに従って第3の画像の深度情報が計算され、第4の画像を取得するために第3の画像の深度情報に従って第3の画像に対してぼかし処理がさらに行われる。高解像度のカメラは第1のカメラであると判断され、高感度のカメラは第2のカメラであると判断され、第1のカメラと第2のカメラとを周囲輝度に従って主カメラと補助カメラとに切り替えることができるので、主カメラと補助カメラの性能を現在の周囲輝度と合致させることができ、画像効果が保証され、先行技術の暗い環境でのデュアルカメラの画像効果が比較的低いという技術的問題が解決される。
上記の実施形態を実施するために、本開示は移動端末をさらに開示する。図6に、本開示の別の実施形態による端末機器の構造図を示す。図6に示されるように、端末機器1000は、ハウジング1100と、ハウジング1100内に位置する第1のカメラ1112と、第2のカメラ1113と、メモリ1114と、プロセッサ1115とを含む。
メモリ1114には実行可能プログラムコードが格納され、プロセッサ1115は、実行可能プログラムコードに対応するプログラムを実行して上記の実施形態のデュアルカメラベースの撮像のための方法を実施するために、メモリ1114に格納された実行可能プログラムコードを読み取る。
第1のカメラの解像度は第2のカメラの解像度よりも高く、第2のカメラの感度は第1のカメラの感度よりも高い。
1つの可能な実施態様では、第1のカメラのFOVは第2のカメラのFOVと同じであり得る。この場合、撮像画像を取得するために第1の撮影画像を切り取るプロセスが除かれ、よって画像処理速度が向上する。
第1のカメラに高解像度を与えるために、16Mカメラが使用され得る。当然ながら、高解像度の別のカメラが使用されてもよい。本実施形態ではこれに制限はない。
加えて、第2のカメラに高感度を与えるために、フォーインワン5Mカメラが使用されて得る。当然ながら、高感度の別のカメラが使用されてもよい。本実施形態ではこれに制限はない。
上記の実施形態を実施するために、本開示は、コンピュータプログラムが格納されたコンピュータ可読記憶媒体をさらに開示する。プログラムは、上記の実施形態におけるデュアルカメラベースの撮像のための方法を実施するために移動端末のプロセッサによって実行される。
移動端末は、画像処理回路をさらに含み、画像処理回路は、ハードウェアおよび/またはソフトウェア構成要素を使用して実装されてもよく、画像信号処理(Image Signal Processing(ISP))パイプラインを定義する様々な処理装置を含んでいてもよい。図7に、一実施形態による画像処理回路の概略図を示す。図7に示されるように、説明の便宜上、本開示の実施形態に関連した画像処理技術の様々な態様が示されている。
図7に示されるように、画像処理回路は、ISPデバイス940と制御論理デバイス950とを含む。撮像装置910によって取り込まれた画像データは、最初にISPデバイス940によって処理され、ISPデバイス940は、画像データを解析して、ISPデバイスおよび/または撮像装置910の1つまたは複数の制御パラメータを決定するための画像統計情報を取り込む。撮像装置910は2つのカメラを特に含んでいてもよく、各カメラは1つまたは複数のレンズ912とイメージセンサ914とを含み得る。イメージセンサ914は、カラー・フィルタ・アレイ(ベイヤフィルタなど)を含んでいてもよく、イメージセンサ914は、イメージセンサ914の各撮像画素によって取り込まれた光強度と波長情報とを取得し、ISPデバイス940による処理が可能な元の画像データセットを提供し得る。センサ920は、センサ920のインターフェースタイプに基づいてISPデバイス940に元の画像データを提供し得る。センサ920のインターフェースは、標準モバイル・イメージング・アーキテクチャ(Standard Mobile Imaging Architecture(SMIA))・インターフェース、別のシリアルもしくはパラレルカメラインターフェース、または上記インターフェースの組み合わせを使用し得る。
ISPデバイス940は、複数のフォーマットに従ってピクセルごとに元の画像データを処理する。例えば、各画素は、8、10、12、または14ビットのビット深度を有し得る。ISPデバイス940は、元の画像データに対して1つまたは複数の画像処理操作を実行し、画像データに関する画像統計情報を収集し得る。画像処理操作は、同じかまたは異なるビット深度精度に従って実行され得る。
ISPデバイス940は、画像メモリ930から画素データをさらに受け取り得る。例えば、センサ920のインターフェースが画像メモリ930に元の画素データを送り、画像メモリ930内の元の画素データが処理のためにISPデバイス940に提供される。画像メモリ930は、電子機器内のメモリデバイス、ストレージデバイス、または独立した専用メモリの一部であってもよく、ダイレクト・メモリ・アクセス(Direct Memory Access(DMA))機構を含み得る。
センサ920のインターフェースからまたは画像メモリ930から元の画像データを受け取ると、ISPデバイス940は、1つまたは複数の画像処理操作、例えば、時間領域フィルタリングを実行し得る。処理された画像データは、表示前に他の処理のために画像メモリ930に送られ得る。ISPデバイス940は、画像メモリ930から処理されたデータを受け取り、処理されたデータに対して元の領域と色空間赤、緑、青(RGB)およびYCbCrとで画像データ処理を行う。処理された画像データは、ユーザが見るために、かつ/またはグラフィックス処理装置(Graphics Processing Unit(GPU))によるさらなる処理のためにディスプレイ970に出力され得る。加えて、ISPデバイス940の出力が画像メモリ930にさらに送られてもよく、ディスプレイ970は画像メモリ930から画像データを読み取り得る。一実施形態では、画像メモリ930は、1つまたは複数のフレームバッファを実装するように構成され得る。さらに、ISPデバイス940の出力は、画像データを符号化/復号化するために符号器/復号器960に送られ得る。符号化された画像データは格納されてもよく、ディスプレイ970に表示される前に解凍される。符号器/復号器960は、中央処理装置(Central Processing Unit(CPU))またはGPUまたはコプロセッサによって実施され得る。
ISPデバイス940によって決定された統計情報は、制御論理デバイス950に送られ得る。例えば、統計情報は、イメージセンサ914の自動露出、自動ホワイトバランス、自動焦点、フラッシュ検出、黒レベル補正、レンズ912の影補正などの統計情報を含み得る。制御論理デバイス950は、1つまたは複数のルーチン(例えば、ファームウェア)を実行するプロセッサおよび/またはマイクロコントローラを含んでいてもよく、1つまたは複数のルーチンは、受け取られた統計データに従って撮像装置910の制御パラメータおよびISPデバイスの制御パラメータを決定し得る。例えば、制御パラメータには、センサ920の制御パラメータ(例えば、利得および露出制御のための積分時間)、カメラフラッシュ制御パラメータ、レンズ912の制御パラメータ(例えば、合焦やズーミングのための焦点距離)またはこれらのパラメータの組み合わせが含まれ得る。ISPデバイスの制御パラメータには、自動ホワイトバランスおよび色調整のための利得レベルおよび色補正マトリックス(例えば、RGB処理時)と、レンズ912の影補正パラメータが含まれ得る。
本明細書の記述において、「一実施形態」、「いくつかの実施形態」、「例」、「具体例」、「いくつかの例」などの用語を用いてなされた記述は、その実施形態または例と組み合わせて記述されている特定の特徴、構造、材料、または特性が本開示の少なくとも1つの実施形態または例に含まれることを指す。本明細書では、これらの用語は、必ずしも同じ実施形態または例について概略的に表現されているとは限らない。さらに、記載された特定の特徴、構造、材料、または特性は、任意の1つまたは複数の実施形態または例において適切な方法で組み合わされ得る。加えて、当業者であれば、本明細書に記載される異なる実施形態または例および異なる実施形態または例の特徴を矛盾なく統合し、組み合わせることもできよう。
加えて、「第1」および「第2」という用語は、記述のために使用されているにすぎず、相対的な重要度を指示または示唆するとも、指示される技術的特徴の数を暗黙的に指示するとも理解されるべきではない。したがって、「第1」および「第2」によって定義される特徴は、少なくとも1つのそのような特徴の包含を明示的または暗黙的に示し得る。本開示の記述において、「複数」とは、特に明確かつ具体的に限定されない限り、少なくとも2つ、例えば2つおよび3つを意味する。
フローチャート内の、または別の方法で本明細書に記載された任意のプロセスまたは方法は、プロセスの特定の論理機能または動作を実現するように構成された1つまたは複数の実行可能命令のコードを含むモジュール、セグメントまたは部分を表すと理解されてもよく、さらに、本開示の好ましい実施モードの範囲は、基本的に同時の、または関与する機能に従った逆の順序での機能の実行を含む、本明細書で図示または考察された順序ではない、他の実施態様を含む。これは、本開示の実施形態の当業者によって理解されよう。
フローチャートで表された、または別の方法で本明細書に記載された論理および/または動作は、論理機能を実現するように構成された実行可能命令の固定順のリストと見なされてもよく、具体的には、命令実行システム、機器もしくは機器(例えば、コンピュータベースのシステム、プロセッサを含むシステム、または命令実行システム、機器もしくは機器から命令を読み取り、命令を実行することができる別のシステム)が使用するための、または命令実行システム、機器もしくは機器と組み合わせて使用するための任意のコンピュータ可読媒体において実装され得る。本明細書では、「コンピュータ可読媒体」とは、命令実行システム、機器もしくは機器が使用するための、または命令実行システム、機器もしくは機器と組み合わせて使用するためのプログラムを含み、格納し、プログラムと通信し、プログラムを伝搬し、または送信することができる任意のデバイスであり得る。コンピュータ可読媒体のより具体的な例(非網羅的リスト)には、1つまたは複数の配線を備えた電子接続部分(電子機器)、ポータブル・コンピュータ・ディスク(磁気デバイス)、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、消去可能書込み可能ROM(EPROM)(またはフラッシュメモリ)、光ファイバデバイス、およびポータブル・コンパクト・ディスク読取り専用メモリ(CD‐ROM)が含まれる。加えて、コンピュータ可読媒体は、紙やプログラムがプリントされ得る別の媒体でさえもよい。というのは、例えば、紙や別の媒体は、光学的にスキャンされ、次いで、編集、解釈され、または、必要に応じて、コンピュータメモリに格納するための電子方式のプログラムを取得するために任意の適切な方法で処理され得るからである。
本開示の各部分は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせによって実施され得ることを理解されたい。上記の実施モードでは、メモリに格納され、適切な命令実行システムによって実行されるソフトウェアまたはファームウェアによって複数の動作または方法が実施され得る。例えば、別の実施モードのような、ハードウェアによる実施の場合には、データ信号のための論理機能を実現するように構成された論理ゲート回路を備えたディスクリート論理回路、適切な組み合わせ論理ゲート回路を備えた特定用途向け集積回路、プログラマブル・ゲート・アレイ(PGA)、フィールド・プログラマブル・ゲート・アレイ(FPGA)などの、当技術分野で周知の技術のうちのいずれか1つまたはそれらの組み合わせが、実施のために使用され得る。
上記の実施形態の方法における動作の全部または一部が、プログラムによって命令される関連ハードウェアを介して完了され得ることを当業者は理解するはずであり、プログラムはコンピュータ可読記憶媒体に格納されてもよく、プログラムが実行される場合、方法実施形態の動作のうちの1つまたはそれらの組み合わせが含まれる。
加えて、本開示の各実施形態における各機能ユニットは処理モジュールに統合されてもよく、各ユニットはまた、物理的に独立して存在してもよく、2つ以上のユニットがモジュールに統合されてもよい。統合モジュールは、ハードウェア形態で実施されてもよく、ソフトウェア機能モジュールの形態で実施されてもよい。ソフトウェア機能モジュールの形態で実施され、独立した製品として販売または使用される場合、統合モジュールはコンピュータ可読記憶媒体に格納され得る。
記憶媒体は、読取り専用メモリ、磁気ディスク、光ディスクなどであり得る。本開示の実施形態は上記で図示または説明されている。しかしながら、上記の実施形態は例示であり、本開示に対する限定として理解されるべきではなく、当業者であれば、本開示の範囲内で上記の実施形態に対して様々な変形、改変、置換、変換を行い得ることが理解されよう。

Claims (12)

  1. デュアルカメラベースの撮像のための方法であって、前記デュアルカメラが第1のカメラと第2のカメラとを含み、前記第1のカメラが、前記第2のカメラの解像度よりも高い解像度を有し、前記第2のカメラの感度よりも低い感度を有し、前記方法が、
    周囲輝度に従って前記デュアルカメラの中から主カメラと補助カメラとを決定することと、
    前記主カメラで撮影された第1の画像に従って第3の画像を生成することと、
    前記主カメラが前記補助カメラの画角(FOV)以下の画角を有する場合、前記第1の画像を前記第3の画像であると判断することと、
    前記主カメラが前記補助カメラの画角(FOV)よりも大きい画角を有する場合、前記補助カメラで撮影された第2の画像と同じ視野を有する前記第3の画像を取得するために前記第1の画像を切り取ることと、
    前記第1の画像と前記第2の画像とに従って前記第3の画像の深度情報を計算することと、
    第4の画像を取得するために前記第3の画像の前記深度情報に従って前記第3の画像に対してぼかし処理を行うことと
    を含
    前記周囲輝度に従って前記デュアルカメラの中から前記主カメラと前記補助カメラとを決定することが、
    前記周囲輝度が輝度閾値よりも高い場合、前記第1のカメラを前記主カメラであると判断し、前記第2のカメラを前記補助カメラであると判断すること、または
    前記周囲輝度が前記輝度閾値以下である場合、前記第2のカメラを前記主カメラであると判断し、前記第1のカメラを前記補助カメラであると判断すること
    を含む、方法。
  2. 前記第1のカメラと前記第2のカメラとの前記感度の国際標準化機構、ISO、値を読み取ることと、
    前記ISO値に従って前記周囲輝度を決定することと
    をさらに含む、請求項1に記載の方法。
  3. 前記第1の画像を前記主カメラで撮影し、前記第2の画像を前記補助カメラで撮影することが、
    前記第2のカメラを合焦のために駆動することと、
    前記第2のカメラが前記合焦を完了したことに応答して、前記第2のカメラのモータの第2の駆動電流値を取得することと、
    前記第2の駆動電流値に従って前記第1のカメラのモータの第1の駆動電流値を決定することと、
    前記第1の駆動電流値を使用して前記第1のカメラを合焦のために駆動することと
    をさらに含む、請求項1または2に記載の撮像方法。
  4. 前記第1の画像と前記第2の画像とに従って前記第3の画像の深度情報を計算することが、
    前記第1の画像内と前記第2の画像内の両方の複数の点について、前記第1の画像と前記第2の画像との間の前記複数の点の各々の変位を計算することと、
    前記変位に関連した情報を前記深度情報であると見なすことと
    を含む、請求項1からのいずれか一項に記載の撮像方法。
  5. 前記第3の画像の前記深度情報に従って前記第3の画像に対してぼかし処理を行うことが、
    前記第3の画像の前景領域と背景領域を決定することと、
    前記深度情報と合焦領域とに従って前記前景領域の第1の深度情報と前記背景領域の第2の深度情報とを取得することと、
    前記第1の深度情報と前記第2の深度情報とに従ってぼかし強度を生成することと、
    前記ぼかし強度に従って前記第3の画像の前記背景領域に対してぼかし処理を行うことと
    を含む、請求項1からのいずれか一項に記載の撮像方法。
  6. 前記ぼかし強度に従って前記第3の画像の前記背景領域に対してぼかし処理を行うことが、
    前記第3の画像の前記背景領域内の各画素のぼかし係数を、前記ぼかし強度と前記画素の深度情報とに従って取得することであって、前記ぼかし係数が前記ぼかし強度に関連し、前記ぼかし係数が高いほど前記ぼかし強度が高いことと、
    各画素の前記ぼかし係数に従って前記第3の画像の前記背景領域に対してぼかし処理を行うことと
    を含む、請求項に記載の撮像方法。
  7. 前記第3の画像の前記深度情報に従って前記第3の画像に対してぼかし処理を行うことが、
    前記第3の画像の背景領域を決定することと、
    前記深度情報と合焦領域とに従って前記背景領域の第2の深度情報を取得することと、 前記第3の画像の前記背景領域の前記第2の深度情報と前記合焦領域の深度情報との差を取得することと、
    対応するぼかし強度を取得するために、前記差に従って、前記差とぼかし強度との間の事前に格納されたマッピング関係を照会することと、
    前記対応するぼかし強度に従って前記第3の画像の前記背景領域に対してぼかし処理を行うことと
    を含む、請求項1からのいずれか一項に記載の撮像方法。
  8. 前記第1の画像を前記主カメラで撮影し、前記第2の画像を前記補助カメラで撮影することが、
    ビューファインディングと撮影を連続して行って、前記主カメラによって撮影されたnフレームの画像と前記補助カメラによって撮影されたmフレームの画像とをそれぞれ取得するために前記主カメラと前記補助カメラと同時に使用することと、
    前記第1の画像を取得するために前記主カメラによって撮影された前記nフレームの画像に対して合成ノイズ低減を行うことと、
    前記第2の画像を取得するために前記補助カメラによって撮影された前記mフレームの画像に対して前記合成ノイズ低減を行うことと
    をさらに含み、mとnとが1より大きい整数である、請求項1からのいずれか一項に記載の撮像方法。
  9. 前記合成ノイズ低減を行うことが、
    同じ位置の前記撮影画像の画素が前記画素の値に従ってノイズポイントに対応すると判断することと、
    前記ノイズポイント上の正しい色を推定し、前記ノイズポイントに対して画素置換処理を行うことと
    を含む、請求項に記載の撮像方法。
  10. 前記合成ノイズ低減を行うことが、
    同じ位置の前記撮影画像の画素の値を読み取ることと、
    前記同じ位置の前記取得された画像の画素の値として前記値の加重平均を計算することと
    を含む、請求項に記載の撮像方法。
  11. 第1のカメラと、
    第2のカメラと、
    プロセッサと、
    コンピュータプログラムを格納したメモリと
    を含み、
    前記第1のカメラが前記第2のカメラの解像度よりも高い解像度を有し、前記第2のカメラの感度よりも低い感度を有し、
    前記コンピュータプログラムが、前記プロセッサによって実行されると、前記プロセッサに、請求項1から10のいずれか一項に記載の方法を実施させる、移動端末。
  12. コンピュータプログラムが格納されたコンピュータ可読記憶媒体であって、前記コンピュータプログラムが請求項1から10のいずれか一項に記載の方法を実施するためにプロセッサによって実行される、コンピュータ可読記憶媒体。
JP2020518405A 2017-11-30 2018-11-09 デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体 Active JP7145208B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711242048.3 2017-11-30
CN201711242048.3A CN107959778B (zh) 2017-11-30 2017-11-30 基于双摄像头的成像方法和装置
PCT/CN2018/114921 WO2019105207A1 (en) 2017-11-30 2018-11-09 Method and device for dual-camera-based imaging and storage medium

Publications (2)

Publication Number Publication Date
JP2020537382A JP2020537382A (ja) 2020-12-17
JP7145208B2 true JP7145208B2 (ja) 2022-09-30

Family

ID=61962059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518405A Active JP7145208B2 (ja) 2017-11-30 2018-11-09 デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体

Country Status (6)

Country Link
US (1) US10616459B2 (ja)
EP (1) EP3493519B1 (ja)
JP (1) JP7145208B2 (ja)
KR (1) KR102306304B1 (ja)
CN (1) CN107959778B (ja)
WO (1) WO2019105207A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107948500A (zh) 2017-11-01 2018-04-20 广东欧珀移动通信有限公司 图像处理方法和装置
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN107959778B (zh) 2017-11-30 2019-08-20 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置
KR20190139788A (ko) * 2018-06-08 2019-12-18 삼성전자주식회사 전자 장치에서 복수의 카메라들을 이용하여 미디어를 캡쳐하기 위한 방법 및 장치
US11012603B2 (en) 2018-06-08 2021-05-18 Samsung Electronics Co., Ltd Methods and apparatus for capturing media using plurality of cameras in electronic device
CN108769545A (zh) * 2018-06-12 2018-11-06 Oppo(重庆)智能科技有限公司 一种图像处理方法、图像处理装置及移动终端
CN108600643A (zh) * 2018-07-13 2018-09-28 广州三星通信技术研究有限公司 图像拍摄方法和装置
KR102524982B1 (ko) * 2018-08-08 2023-04-24 삼성전자 주식회사 흐림 처리가 수행된 이미지에 노이즈 패턴을 반영하는 방법 및 장치
KR102525000B1 (ko) * 2018-08-08 2023-04-24 삼성전자 주식회사 복수의 이미지들이 합성된 이미지를 깊이 정보에 기반하여 흐림 처리하는 전자 장치 및 상기 전자 장치의 구동 방법
CN109377460A (zh) * 2018-10-15 2019-02-22 Oppo广东移动通信有限公司 一种图像处理方法、图像处理装置及终端设备
CN110300268A (zh) * 2019-07-26 2019-10-01 上海龙旗科技股份有限公司 摄像头切换方法及设备
US11483484B2 (en) * 2019-11-06 2022-10-25 Nec Corporation Of America Systems and methods for imaging of moving objects using multiple cameras
CN113395434B (zh) * 2020-03-11 2022-08-23 武汉Tcl集团工业研究院有限公司 一种预览图像虚化方法、存储介质及终端设备
CN112017137B (zh) * 2020-08-19 2024-02-27 深圳市锐尔觅移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN112311985B (zh) * 2020-10-12 2021-12-14 珠海格力电器股份有限公司 一种多摄拍照处理方法、装置及存储介质
CN113206960A (zh) * 2021-03-24 2021-08-03 上海闻泰电子科技有限公司 拍摄方法、装置、计算机设备和计算机可读存储介质
CN113810598B (zh) * 2021-08-11 2022-11-22 荣耀终端有限公司 一种拍照方法、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160863A (ja) 2011-01-31 2012-08-23 Sanyo Electric Co Ltd 撮像装置、画像再生装置及び画像処理装置
JP2013121173A (ja) 2011-12-09 2013-06-17 Panasonic Corp 撮像装置
JP2016129289A (ja) 2015-01-09 2016-07-14 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018445A (ja) * 2001-07-05 2003-01-17 Fuji Photo Film Co Ltd 画像撮像装置
US7859588B2 (en) * 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
CN105681633B (zh) 2009-03-19 2019-01-18 数字光学公司 双传感器照相机及其方法
JP5396231B2 (ja) * 2009-10-21 2014-01-22 オリンパスイメージング株式会社 撮像装置
JP5979837B2 (ja) * 2011-09-15 2016-08-31 キヤノン株式会社 交換レンズ、及びそれを有するカメラシステム
CN103871051B (zh) * 2014-02-19 2017-01-18 小米科技有限责任公司 图像处理方法、装置和电子设备
CN105556935B (zh) * 2014-05-15 2019-04-19 华为技术有限公司 用于多帧降噪的方法和终端
KR102251483B1 (ko) 2014-10-23 2021-05-14 삼성전자주식회사 영상을 처리하는 전자 장치 및 방법
CN104333700B (zh) * 2014-11-28 2017-02-22 广东欧珀移动通信有限公司 一种图像虚化方法和图像虚化装置
EP3234908A4 (en) * 2014-12-19 2018-05-23 Nokia Technologies OY Method, apparatus and computer program product for blur estimation
CN105100615B (zh) * 2015-07-24 2019-02-26 青岛海信移动通信技术股份有限公司 一种图像的预览方法、装置及终端
US20160366398A1 (en) 2015-09-11 2016-12-15 Mediatek Inc. Image Frame Synchronization For Dynamic Image Frame Rate In Dual-Camera Applications
CN106550184B (zh) 2015-09-18 2020-04-03 中兴通讯股份有限公司 照片处理方法及装置
KR102480600B1 (ko) * 2015-10-21 2022-12-23 삼성전자주식회사 이미지 처리 장치의 저조도 화질 개선 방법 및 상기 방법을 수행하는 이미지 처리 시스템의 동작 방법
CN107613199B (zh) * 2016-06-02 2020-03-13 Oppo广东移动通信有限公司 虚化照片生成方法、装置和移动终端
CN106254682B (zh) 2016-09-22 2019-07-26 维沃移动通信有限公司 一种拍照方法及移动终端
CN106780330B (zh) 2016-12-08 2018-05-11 中国人民解放军国防科学技术大学 一种基于彩色与黑白双摄像头的超分辨率重建方法
CN106851104B (zh) 2017-02-28 2019-11-22 努比亚技术有限公司 一种根据用户视角进行拍摄的方法及装置
CN106993112B (zh) * 2017-03-09 2020-01-10 Oppo广东移动通信有限公司 基于景深的背景虚化方法及装置和电子装置
CN106952222A (zh) * 2017-03-17 2017-07-14 成都通甲优博科技有限责任公司 一种交互式图像虚化方法及装置
CN106960413A (zh) * 2017-03-24 2017-07-18 深圳市金立通信设备有限公司 一种图像虚化的方法及终端
CN106791341A (zh) * 2017-03-27 2017-05-31 上海与德科技有限公司 基于双摄像头的拍摄方法及装置
CN107194963A (zh) * 2017-04-28 2017-09-22 努比亚技术有限公司 一种双摄像头图像处理方法及终端
CN107959778B (zh) 2017-11-30 2019-08-20 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012160863A (ja) 2011-01-31 2012-08-23 Sanyo Electric Co Ltd 撮像装置、画像再生装置及び画像処理装置
JP2013121173A (ja) 2011-12-09 2013-06-17 Panasonic Corp 撮像装置
JP2016129289A (ja) 2015-01-09 2016-07-14 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体

Also Published As

Publication number Publication date
US10616459B2 (en) 2020-04-07
EP3493519A1 (en) 2019-06-05
CN107959778A (zh) 2018-04-24
WO2019105207A1 (en) 2019-06-06
KR102306304B1 (ko) 2021-09-29
US20190166286A1 (en) 2019-05-30
CN107959778B (zh) 2019-08-20
KR20200042536A (ko) 2020-04-23
JP2020537382A (ja) 2020-12-17
EP3493519B1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP7145208B2 (ja) デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体
US10825146B2 (en) Method and device for image processing
KR102293443B1 (ko) 듀얼 카메라를 이용한 이미지 처리 방법 및 이동 단말기
US10554898B2 (en) Method for dual-camera-based imaging, and mobile terminal
CN107948519B (zh) 图像处理方法、装置及设备
JP6911192B2 (ja) 画像処理方法、装置および機器
JP6903816B2 (ja) 画像処理方法および装置
KR102304784B1 (ko) 더블 카메라 기반 이미징 방법 및 장치
CN107872631B (zh) 基于双摄像头的图像拍摄方法、装置及移动终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220301

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220301

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220315

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220318

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220527

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220531

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220628

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220802

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220830

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220916

R150 Certificate of patent or registration of utility model

Ref document number: 7145208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150