JP2020528700A - デュアルカメラを使用する画像処理のための方法および移動端末 - Google Patents

デュアルカメラを使用する画像処理のための方法および移動端末 Download PDF

Info

Publication number
JP2020528700A
JP2020528700A JP2020503715A JP2020503715A JP2020528700A JP 2020528700 A JP2020528700 A JP 2020528700A JP 2020503715 A JP2020503715 A JP 2020503715A JP 2020503715 A JP2020503715 A JP 2020503715A JP 2020528700 A JP2020528700 A JP 2020528700A
Authority
JP
Japan
Prior art keywords
image
camera
primary
images
depth information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020503715A
Other languages
English (en)
Other versions
JP7015374B2 (ja
Inventor
オウヤン、ダン
タン、グオフイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020528700A publication Critical patent/JP2020528700A/ja
Application granted granted Critical
Publication of JP7015374B2 publication Critical patent/JP7015374B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Exposure Control For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

画像処理のための方法および移動端末、ならびにコンピュータ可読媒体が開示される。一方法では、n個の第1の画像とm個の第2の画像とが取得される。第1の画像と第2の画像とはそれぞれ一次カメラと二次カメラとによって取り込まれ、nとmとどちらも2より大きい整数である。一次画像と二次画像とをそれぞれ取得するために、n個の第1の画像とm個の第2の画像とに対してそれぞれ合成・ノイズ除去プロセスが行われる。一次画像と二次画像とに基づいて一次画像の深度情報が取得される。次いで、ターゲット画像を取得するために一次画像の深度情報に基づいて一次画像のためのぼかしプロセスが行われる。

Description

関連出願の相互参照
本出願は、その内容全体が参照により本明細書に組み込まれる、2017年11月1日に出願された中国特許出願第201711060116.4号の優先権を主張するものである。
本開示は、一般に、移動端末の技術分野に関し、特に、デュアルカメラを使用する画像処理のための方法および移動端末に関する。
移動端末では、通常、そのサイズの限界のために、光学モードで背景のぼかし効果を達成することができない。画像の背景をぼかし処理するために、既存の技術では、2つのカメラがそれぞれ写真を取り込むように適合され得る。2枚の写真のうち一方が画像写真として選択され、画像写真の深度情報が写真の他方に基づいて計算される。次いで、深度情報に従って画像写真の背景に対してぼかしプロセスが行われる。
しかしながら、暗い光環境の場合、画像写真の画像効果が不十分である一方で深度情報も十分に正確ではないため、得られるぼかし処理写真の効果が不十分になる。
本開示では、関連技術における技術的問題の少なくとも1つを解決することが意図されている。この目的で、本開示は、画像の画像効果を向上させ、深度情報の正確さを向上させる画像処理のための方法および移動端末を提案する。
本開示の一態様によれば、画像処理のための方法が提供される。本方法は、n個の第1の画像とm個の第2の画像とを取得することであって、第1の画像と第2の画像とがそれぞれ、一次カメラと二次カメラとによって取り込まれ、nとmとがどちらも2より大きい整数である、ことと、一次画像と二次画像とをそれぞれ取得するためにn個の第1の画像とm個の第2の画像とに対してそれぞれ合成・ノイズ除去プロセスを行うことと、一次画像と二次画像とに基づいて一次画像の深度情報を取得することと、ターゲット画像を取得するために一次画像の深度情報に基づいて一次画像のためのぼかしプロセスを行うことと、を含み得る。
本開示の別の態様によれば、移動端末が提供される。本移動端末は、回路を含み得る。回路は、上記態様における画像処理のための方法を行うように構成され得る。
本開示のさらに別の態様によれば、非一時的コンピュータ可読媒体が提供される。本非一時的コンピュータ可読媒体は、プロセッサによって実行されると、プロセッサに、上記態様における画像処理のための方法を行わせる命令を格納し得る。
本開示の実施形態に記載される技術的解決策をより明確にするために、実施形態の説明に使用される図面について簡単に説明する。明らかに、下記の図面は限定のためではなく例示のためのものにすぎない。当業者であれば、何ら発明的作業を行わずに、これらの図面に基づいて他の図面を取得し得ることを理解されたい。
本開示の一実施形態による画像処理のための方法の流れ図である。 三角測定の原理概略図である。 本開示の一実施形態による画像処理のための別の方法の流れ図である。 カメラモジュールの構造概略図である。 本開示の一実施形態による画像処理のための装置の構造概略図である。 本開示の一実施形態による画像処理のための別の装置の構造概略図である。 本開示の一実施形態による移動端末の構造概略図である。 本開示の一実施形態による画像処理回路の概略図である。
その例が添付の図面に示されている本開示の以下の実施形態について詳細に説明する。図面において、同じかもしくは類似した参照番号は、全体を通して、同じかもしくは類似した要素または同じかもしくは類似した機能を果たす要素を表すために使用されている。添付の図面を参照して以下で説明される実施形態は例示にすぎず、すなわちそれらの実施形態は、本開示を限定するのではなく説明するためのものである。
以下において、本開示の実施形態で提供される画像処理のための方法および移動端末について、図面を参照しながら説明する。
本開示の実施形態における画像処理のための方法は、携帯電話、テーブルPC、パーソナル・デジタル・アシスタント、ウェアラブル機器などのデュアルカメラを備えたハードウェア装置によって実施され得る。ウェアラブル機器は、スマートブレスレット、スマートウォッチ、スマートグラスなどであり得る。
図1は、本開示の一実施形態による画像処理のための方法の流れ図である。図1に示されるように、画像処理のための方法は、以下のブロックを含み得る。
ブロック101で、n個の第1の画像とm個の第2の画像とが取得され、第1の画像と第2の画像とがそれぞれ一次カメラと二次カメラとによって取り込まれる。nとmとはどちらも2より大きい整数である。
本開示の本実施形態では、第1の画像と第2の画像とに対してそれぞれ合成・ノイズ除去プロセスを行うことにより、画像品質が改善され得る。実際の適用例では、低照度の環境下ではデュアルカメラの画像効果が不十分なので、取り込まれた第1の画像と第2の画像とに多くのノイズがある。高照度の環境下では、十分な照明があるため、デュアルカメラの画像効果は優れている。nとmの値は、異なる環境下でのデュアルカメラの画像性能に基づいて調整され得る。例えば、nとmの値は、低照度の環境下では大きくなるように調整されるので、画像効果が可能な限り改善される。加えて、画像効果が優れていることが保証されている場合にはシステム全体の処理圧力を低減させるために、nとmの値は、高照度の環境下では小さくなるように調整される。
本開示の1つの実施形態では、その下で撮影操作が検出される周囲光の輝度が取得される。例えば、周囲光の輝度は、デュアルカメラを備えたハードウェア装置内の光センサによって取得され得る。別の例として、周囲光の輝度は、デュアルカメラのISO(International Standards Organization(国際標準化機構))感度値に従って取得され得る。取得された周囲光の輝度がある範囲に位置する場合、nとmの対応する値を、例えば、周囲光の輝度とnとmの値との関係を定義するルックアップテーブルで見つけることができる。よって、一次カメラと二次カメラとは、それぞれn個の第1の画像とm個の第2の画像とを取り込むよう制御される。
周囲光の輝度の様々な範囲に対応するnとmの値は、多くの試験データから較正され得る。試験時には、各々のn個の第1の画像とm個の第2の画像に対してそれぞれ合成・ノイズ除去プロセスが行われた後、nとmの異なる値に対する異なる画像効果および異なる処理時間が試験され、nとmの各対は周囲光の輝度の各範囲に対応する。事前設定処理時間が満たされたときに最適な画像効果のためのnとmの特定の値が取得され得る。次いで、最適な画像効果のためのnとmの値と周囲光の輝度の対応する範囲との関係が確立され得る。
nとmの値は、デュアルカメラを備えたハードウェア装置の画像ハードウェアにも関連し得ることに留意されたい。画像ハードウェアの感度が高いほど、nとmの値は小さくなる。
ブロック102で、合成・ノイズ除去プロセスが、一次画像を取得するためにn個の第1の画像に対して、二次画像を取得するためにm個の第2の画像に対して行われる。
一実施形態では、合成・ノイズ除去プロセスは、一次画像を取得するためにn個の第1の画像に対して、二次画像を取得するためにm個の第2の画像に対してノイズ除去アルゴリズムを用いて行われる。本明細書に記載されるノイズ除去アルゴリズムは、非局所的手段のノイズ除去アルゴリズムであってもよく、当然ながら、他のノイズ除去アルゴリズムの1つであってもよく、これについては本実施形態では限定されない。
複数のフレームの合成・ノイズ除去プロセスをはっきりと理解するために、複数のフレームの合成・ノイズ除去プロセスについて説明する。
低照度の環境下にある場合、端末機器などの画像機器は、一般に、機器の撮影感度を自動的に向上させるモードを用いるが、このモードは多くのノイズを含む点を有する画像を生じさせることになる。複数のフレームのための合成・ノイズ除去プロセスは、高感度条件で撮影された画像品質を向上させるために、画像のノイズを含む点を低減させるように構成される。その原理は、周知のノイズを含む点は無秩序に配置されているという点にある。詳細には、複数の画像を連続して取り込んだ後、同じ位置にあるノイズを含む点は、赤のノイズを含む点、緑のノイズを含む点、または白のノイズを含む点であり得る。具体的には、同じ位置にはどんなノイズを含む点も存在しない。したがって、複数の画像が登録された後、複数の取り込み画像内の同じ位置に対応する各画素点の値に従ってノイズ(ノイズを含む点)に属する画素点をフィルタリングするために比較およびフィルタリング条件が与えられる。さらに、ノイズを含む点をフィルタリングした後、ノイズを含む点を除去するために、ノイズを含む点に対して色推測および画素置換プロセスを行うアルゴリズムがさらに用いられ得る。上記プロセスの後、低い画像品質損失でノイズ除去効果が達成され得る。
例えば、複数のフレームの合成・ノイズ除去プロセスのための簡単な方法では、複数の画像が取り込まれ、次いで複数の画像の同じ位置に対応する画素点の値が読み取られる。画素点の加重平均値が計算され、次いで合成画像の同じ位置にある対応する画素点の値が生成される。これにより、高解像度を有する画像が実現され得る。
画像の中で最高の解像度を有する1つの画像が存在し、これはベース画像として扱われ得る。可能な一実施態様として、ベース画像の重みを他の画像の重みよりも大きくし得る。言い換えると、ベース画像のノイズは、実質的に他の画像を参照して識別および除去され得る。
ブロック103で、一次画像と二次画像とに基づいて一次画像の深度情報が取得される。
一次カメラと二次カメラとの間にはある一定の距離があるので、これらのカメラ間に視差が形成される。よって、異なるカメラによって取り込まれた画像は異なるものになる。一次画像と二次画像とはどちらも、異なるカメラによって取り込まれた画像に対して合成・ノイズ除去プロセスを行うことによって取得される。したがって、一次画像と二次画像との間にもいくつかの差があることになる。三角測定の原理によれば、ある物体の深度情報は、一次画像内のその物体と二次画像内のその物体との差に基づいて取得でき、その物体と一次カメラと二次カメラとが位置する平面との間の距離とも呼ばれる。一次画像の深度情報は、一次画像内の様々な物体の深度情報が取得される際に取得される。
このプロセスを明確に述べるために、三角測定の原理について以下で簡単に説明する。
実際のシナリオにおいて、場面の目で識別される深度情報は立体視に基づくものであり、これは、デュアルカメラが深度情報を識別する原理と同じである。本実施形態では、画像の深度情報を取得するための方法は、主に三角測定の原理に基づいている。三角測定の原理は図2に示されている。
図2では、画像化物体、デュアルカメラの位置Oおよび位置O、ならびにデュアルカメラの焦点面が実際の空間に示されている。焦点面は、デュアルカメラがそれぞれ位置する平面から距離fの間隔で配置されており、デュアルカメラは2つの画像を取り込むためにそれぞれ焦点面において結像する。
点Pと点P’とは、2つの異なる取り込み画像における同じ物体の位置である。P点は、点Pが位置する、画像の左端境界から、距離Xの間隔で配置されており、P’点は、点P’点が位置する、別の画像の左端境界から、距離Xの間隔で配置されている。点Oと点Oとはそれぞれ2つのカメラを表し、2つのカメラは同じ平面上に配置されており、互いから距離Bの間隔で配置されている。
三角測定の原理によれば、図2に示される物体は、これらのカメラが位置する平面から、距離Zの間隔で配置されており、距離Zは式
を満たす。
したがって、式
が導き出され、式中、dは、2つの異なる取り込み画像における同じ物体の位置間の差である。Bおよびfは一定値であるので、物体の距離Zは、差dに従って決定され得る。
ブロック104で、ターゲット画像を取得するために一次画像の深度情報に基づいて一次画像のためのぼかしプロセスが行われる。
一実施形態では、一次画像の深度情報を取得した後、深度情報に基づいて一次画像上で背景領域と前景領域とが識別される。例えば、一次画像上のある物体が前景領域に属するかそれとも背景領域に属するかが、一次画像内の物体の深度情報に従って決定される。一般に、ある物体の深度情報は、その物体が一次カメラと二次カメラとが位置する平面に近づくにつれてその物体の深度値が小さくなる場合、その物体は前景領域に属すると判断されることを指示する。そうでない場合、物体は前景領域に属すると判断され得る。
一実施形態では、ターゲット画像を取得するために背景領域に対してぼかしプロセスが行われ得る。よって、ターゲット画像では、前景領域が目立ち、背景領域はぼやけているので、前景領域の焦点領域についての画像効果がより高く、より顕著になる。
一次画像の深度情報に基づき、ぼかしプロセスは以下の方法で一次の背景領域に対して行われ得る。
一次画像の深度情報は、前景領域についての第1の深度情報と背景領域についての第2の深度情報とを含む。一実施形態では、前景領域についての第1の深度情報と背景領域についての第2の深度情報とは、一次画像の深度情報と焦点領域とに従って取得される。第1の深度情報と第2の深度情報とに基づいてぼかしレベルが計算され、次いでそのぼかしレベルでのぼかしプロセスが背景領域に対して行われる。よって、異なるぼかしレベルでの異なるぼかしプロセスが異なる深度情報に従って行われ、ぼやけた画像がより自然になり、階層的な感じを持つようになり得る。
例えば、一次画像の深度情報は、一次画像の撮影主要部分が合焦された後に、目ではっきりと結像できる、焦点領域の前後の空間深度範囲である。焦点領域の前の画像範囲は前景領域についての第1の深度情報であり、焦点領域の後の明瞭な画像範囲は背景領域についての第2の深度情報であることが理解できる。
ぼかしプロセス中に、背景領域に対してぼかしレベルでのぼかしプロセスを行うブロックは、以下に例示される異なるモードによって実現され得る。
第2の深度情報は、背景領域内の画素の深度値を含む。可能な一実施態様として、各画素のぼかし係数が、ぼかしレベルと、ターゲット一次画像の背景領域内の各画素の深度値とに従って取得される。ぼかしレベルは、背景領域内の画素のぼかし係数に関連している。ぼかし係数が大きいほど、ぼかしレベルが高くなる。例えば、ぼかしレベルをターゲット一次画像の背景領域内の各画素の深度値で乗算することによって得られる積が、各画素のぼかし係数を取得するために計算され、次いで、各画素のぼかし係数に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行う。
別の可能な実施態様として、第2の深度情報は、焦点領域の深度情報からより遠く離れており、これは、対応する背景領域が焦点領域からより遠く離れており、焦点領域との関連性がより小さく、よって対応するぼかしレベルがより高いことを意味する。この例示的実施形態では、ぼかしレベルと、第2の深度情報と焦点領域の深度情報との差との間の対応関係が事前格納され得る。対応関係においては、第2の深度情報と焦点領域の深度情報との差はより大きく、対応するぼかしレベルはより大きい。よって、ターゲット一次画像の背景領域の第2の深度情報と焦点領域の深度情報との差が取得され、その差に従って対応するぼかしレベルを取得するために対応関係が探索され、ぼかしレベルに従って対応する深度情報を有する背景領域に対してぼかしプロセスが行われる。
本実施形態では、一次カメラが第1の画像を取り込み、二次カメラが第2の画像取り込んだ後、一次画像と二次画像とをそれぞれを取得するためにn個の第1の画像とm個の第2の画像とに対してそれぞれ合成・ノイズ除去プロセスが行われる。次いで、一次画像と二次画像とに基づいて一次画像の深度情報が取得され、最後に、必要なターゲット画像を取得するために一次画像の深度情報に基づいて一次画像のためのぼかしプロセスが行われる。n個の第1の画像に対して合成・ノイズ除去プロセスを行うことによって一次画像が取得され、m個の第2の画像に対して合成・ノイズ除去プロセスを行うことによって二次画像が取得されるという方法が用いられるので、一次画像および二次画像のノイズが低減されて、一次画像および二次画像の解像度が高くなる。その後のぼかしプロセスは、高解像度を有する一次画像と二次画像とに対して行われる。一方では、画像の画像効果が向上し、他方では、画像処理効果が良好になるように深度情報の正確さが高められ、これにより、既存の技術におけるぼかしプロセスを行った後の画像効果が不十分であるという技術的問題が解決される。
前の実施形態を明確に説明するために、本開示の一実施形態は、画像処理のための別の方法を提供する。図3Aは、本開示の一実施形態による画像処理のための別の方法の流れ図である。
画像処理のための方法は、具体的には、携帯電話、テーブルPC、パーソナル・デジタル・アシスタント、ウェアラブル機器などのデュアルカメラを備えたハードウェア装置によって実施され得る。デュアルカメラを備えたハードウェア装置は、カメラモジュールを含む。図3Bは、カメラモジュールの構造概略図である。図3Bに示されるように、カメラモジュールは、一次カメラと二次カメラとを含む。一次カメラと二次カメラとは、それぞれのレンズと、イメージセンサと、ボイス・コイル・モータなどのモータを有する。デュアルカメラの一次カメラと二次カメラとはどちらもそれぞれコネクタに接続されている。ボイス・コイル・モータを例にとると、ボイス・コイル・モータは、コネクタから提供される電流値によって駆動されて、一次カメラと二次カメラとは、ボイス・コイル・モータによって、それぞれのレンズとそれぞれのイメージセンサとの間の距離を調整するように駆動される。よって、焦点が実現される。
可能な1つの適用シナリオとして、二次カメラは一次カメラよりも低い解像度を有する。合焦時に、二次カメラのみが、撮影操作が検出されたときに一次カメラと二次カメラとについて合焦されるように構成される。二次カメラが合焦されたときに、二次カメラを合焦させるように構成された二次カメラのボイス・コイル・モータの第2の駆動電流が読み取られる。一次カメラが二次カメラと同じ合焦要件を満たす必要がある場合には、第2の駆動電流に従って一次カメラのボイス・コイル・モータの第1の駆動電流が決定される。一次カメラは次いで、第1の駆動電流によって合焦される。二次カメラは低い解像度を有するので、画像処理の速度が速く、その場合、合焦速度が加速され、これにより、既存の技術におけるデュアルカメラの低合焦速度についての技術的問題が解決される。
図3Bに示されるように、一次カメラと二次カメラとの間には距離がある。前の実施形態で言及された式
から分かるように、一次カメラと二次カメラとの間の距離が小さすぎる場合、計算可能な物体は密集している。物体の距離を大きくする必要がある場合、一次カメラと二次カメラとの間の距離は大きくなければならない。しかしながら、一次カメラと二次カメラとの間の距離は、多くの場合、機器構造によって制限される。したがって、デュアルカメラを備えたハードウェア装置が製造および設計される場合、一次カメラと二次カメラとの間の距離は可能な限り大きくすべきである。
デュアルカメラの具体的な実施時には、デュアルカメラの中から一次カメラおよび二次カメラとして異なるグループのカメラが選択され得る。このようにして、様々なユーザの要件が適応されることになる。
一実施形態では、二次カメラは通常のカメラとデュアルピクセルカメラの一方であり、一次カメラは通常のカメラとデュアルピクセルカメラの他方である。1つの適用シナリオでは、合焦速度が高いことが必要である。デュアルカメラの一次カメラは通常のカメラであり、デュアルカメラの二次カメラはデュアルピクセルカメラである。デュアルピクセルカメラは、通常のカメラよりも低い解像度を有する。
デュアルピクセルカメラの各画素は2つの単位で構成されることに留意されたい。2つの単位は、位相焦点検出点として使用されるか、または単一画素の画像に結合されてもよく、これにより、場面が電子的に取り込まれる際の合焦性能が大幅に向上する。デュアルピクセル相補形金属酸化膜半導体(complementary metal oxide semiconductor(CMOS))およびセンサカメラは、センサとしてCMOSを使用するデュアルピクセルカメラとして一般に使用され、SLRカメラで最初に使用される。
別の実施形態では、二次カメラは広角カメラと望遠カメラの一方であり、一次カメラは広角カメラと望遠カメラの他方である。別の適用シナリオでは、画像効果が良好であることが必要である。広角カメラと望遠カメラのグループがデュアルカメラとして選択される。撮影要件により、一次カメラと二次カメラとは相互に切り替えられる。例えば、近景が取り込まれる必要がある場合は、広角レンズが一次カメラとして使用され、望遠レンズが二次カメラとして使用される。遠景が取り込まれる必要がある場合は、望遠レンズが一次カメラとして使用され、広角レンズが二次カメラとして使用される。よって、光学ズーム機能が実現されるだけでなく、画像品質とそれに続くぼかし効果も保証される。
デュアルカメラの選択については、他にも多くの可能な実施態様があり、これについてはここでは限定されない。
図3Aに示されるように、本開示の実施形態によって提供される画像処理のための別の方法は、デュアルカメラを備えた上記のハードウェア装置によって実施され得る。この方法は、以下のブロックを含み得る。
ブロック301で、撮影操作が検出される。
一実施形態では、ユーザが、移動端末上のプレビューインターフェースによって画像を表示させようと決定した場合、ユーザはプレビューインターフェースの上に浮かんでいる撮影ウィジェットをクリックし得る。次いで、移動端末は撮影操作を検出する。
ブロック302で、一次カメラと二次カメラのISO感度値がそれぞれ読み取られる。
一実施形態では、一次カメラと二次カメラとは、多くの場合、同じISO感度値を用いることになる。対応する周囲光の輝度は、ISO感度値によって決定され得る。しかしながら、一実施形態では、読み取られた一次カメラと二次カメラのISO感度値が同じでない場合、一次カメラと二次カメラとのこれらのISO感度値の平均値が、対応する周囲光の輝度であると判断され得る。
ブロック303で、読み取られた一次カメラと二次カメラのISO感度値に基づいて周囲光の輝度が取得される。
ISO感度値は、カメラの感度を指示するように構成される。ISO感度値は、多くの場合、50、100、200、400、1000などに設定される。カメラは、周囲光の輝度に従ってそのISO感度値を調整し得る。よって、本実施形態では、周囲光の輝度はISO感度値に従って導出され得る。高照度環境の場合、ISO感度値は50または100に設定される。低照度環境の場合、ISO感度値は400以上に設定され得る。
可能な一実施態様として、ISO感度値の範囲はいくつかの間隔に分割されてもよく、各間隔は周囲光の輝度のレベルに対応する。
例えば、間隔[0,100)は、周囲光の輝度の高照度レベルに対応し、間隔[100,400)は、周囲光の輝度の通常レベルに対応し、400を超える間隔は、周囲光の輝度の低照度レベルに対応する。
ブロック304で、nとmの値が、周囲光の輝度に基づいて決定される。一次カメラはn個の第1の画像を取り込み、二次カメラはm個の第2の画像を取り込む。
一実施形態では、合成・ノイズ除去プロセスが行われる画像の数、例えばnやmは、周囲光の輝度に従って決定される。周囲光の輝度が高いほど、合成・ノイズ除去プロセスが行われる画像の数が多くなる。すなわち、nとmの値は各々、周囲光の輝度と反比例関係にある。
可能な一実施態様として、nとmの値は同じである。nとmの値は、2以上6以下の範囲内である。
例えば、周囲光の輝度が高照度レベルの場合、m=n=6であり、周囲光の輝度が通常レベルの場合、m=n=4であり、周囲光の輝度が低照度レベルの場合、m=n=2である。
周囲光の輝度に関する上記のレベルは単なる例示であり、限定されることは意図されていないことに留意されたい。周囲光の輝度の最適レベルおよびnとmの値が有限の試験によって決定されることを当業者は理解するはずである。
ブロック305で、一次カメラと二次カメラとが複数の画像をそれぞれ取得するために同時に写真撮影する。
一次カメラと二次カメラとは同時に写真撮影する。すなわち、二次カメラは一次カメラが写真撮影するのと同時に写真撮影する。一次カメラと二次カメラとはどちらも複数の画像を取り込む。
ブロック306で、一次カメラの複数の画像の中からn個の画像がn個の第1の画像として選択され、二次カメラの複数の画像の中からm個の画像がm個の第2の画像として選択され、n個の第1の画像とm個の第2の画像とはそれぞれ連続している。
あるいは、複数の画像の中から連続したn個の第1の画像が選択され、それらの画像の解像度に基づいて、複数の画像の中から連続した第2の画像が選択される。
n=mの場合、選択される第1の画像と第2の画像は、同時に写真撮影することによって取得されてもよく、非同時的に写真撮影することによって取得されてもよく、これについてはここでは限定されないことに留意されたい。
ブロック307で、一次画像と二次画像とをそれぞれ取得するために、n個の第1の画像とm個の第2の画像とに対してそれぞれ合成・ノイズ除去プロセスが行われる。
合成・ノイズ除去プロセスについては前の実施形態で説明されており、ここでは繰り返さない。
ブロック308で、一次画像は、一次画像の画像領域を二次画像と同じにするために切り取られる。
一実施形態では、一次カメラの画角が二次カメラの画角よりも大きい場合、一次カメラと二次カメラとは同じ平面に位置するので、一次カメラの視野範囲は二次カメラの視野範囲よりも大きい。したがって、一次カメラの画像内の各物体が二次カメラによって取り込まれない可能性がある。すなわち、その物体が二次カメラによる取り込み画像に存在しない場合もある。この場合、一次カメラの一次画像は、一次画像の画像領域を二次画像と同じにするために切り取られる必要がある。
一次カメラの画角が二次カメラの画角以下である場合、一次カメラと二次カメラとは同じ平面に位置するので、一次カメラの視野範囲は二次カメラの視野範囲以下であることに留意されたい。したがって、死角を考慮することなく、一次カメラの画像内の各物体が二次カメラの画像に位置することが可能である。すなわち、物体は、二次カメラによる取り込み画像同時に存在し得る。この場合、一次カメラの一次画像は切り取られる必要はない。
ブロック309で、一次画像と二次画像とに基づいて一次画像の深度情報が取得される。
一実施形態では、一次画像と二次画像とが登録された後、一次画像内の物体と二次画像内の同じ物体間の位置偏差と、デュアルカメラのパラメータとに従って一次画像内の各物体の深度情報が取得される。一次画像の深度情報は、一次画像内のすべての物体の深度情報が取得される際に取得される。
ブロック310で、ターゲット画像を取得するために一次画像の深度情報に基づいて一次画像のためのぼかしプロセスが行われる。
一次画像の深度情報を取得した後、深度情報に基づいて一次画像上で背景領域と前景領域とが識別される。例えば、一次画像内の物体の深度情報に従って一次画像上のある物体が前景領域に属するかそれとも背景領域に属するか。一般に、ある物体の深度情報は、その物体が一次カメラと二次カメラとが位置する平面に近づくにつれてその物体の深度値が小さくなる場合、その物体は前景領域に属すると判断されることを指示する。そうでない場合、物体は前景領域に属すると判断され得る。ぼかしプロセスは、ターゲット画像を取得するために背景領域に対して行われ得る。
本実施形態では、一次カメラが第1の画像を取り込み、二次カメラが第2の画像取り込んだ後、一次画像と二次画像とをそれぞれを取得するためにn個の第1の画像とm個の第2の画像とに対してそれぞれ合成・ノイズ除去プロセスが行われる。次いで、一次画像と二次画像とに基づいて一次画像の深度情報が取得され、最後に、必要なターゲット画像を取得するために一次画像の深度情報に基づいて一次画像のためのぼかしプロセスが行われる。n個の第1の画像に対して合成・ノイズ除去プロセスを行うことによって一次画像が取得され、m個の第2の画像に対して合成・ノイズ除去プロセスを行うことによって二次画像が取得されるという方法が用いられるので、一次画像および二次画像のノイズが低減され、これにより、既存の技術におけるぼかしプロセスを行った後の画像効果が不十分であるという技術的問題が解決される。
上記の実施形態を実施するために、本開示では画像処理のための装置が提供される。
図4は、本開示の一実施形態による画像処理のための装置の構造概略図である。本装置は、移動端末に適用され得る。
図4に示されるように、本装置は、取得モジュール41と、ノイズ除去モジュール42と、計算モジュール43と、処理モジュール44とを含む。
取得モジュール41は、n個の第1の画像とm個の第2の画像とを取得するように構成され、第1の画像と第2の画像とはそれぞれ一次カメラと二次カメラとによって取り込まれる。nとmとはどちらも2より大きい整数である。
具体的には、取得モジュール41は、撮影操作が検出されたときに複数の画像をそれぞれ取得するように同時に写真撮影し、一次カメラの複数の画像の中からn個の画像をn個の第1の画像として選択し、二次カメラの複数の画像の中からm個の画像をm個の第2の画像として選択するように構成され、n個の第1の画像とm個の第2の画像とはそれぞれ連続している。
ノイズ除去モジュール42は、一次画像と二次画像とをそれぞれ取得するためにn個の第1の画像とm個の第2の画像とに対してそれぞれ合成・ノイズ除去プロセスを行うように構成される。
計算モジュール43は、一次画像と二次画像とに基づいて一次画像の深度情報を取得するように構成される。
処理モジュール44は、必要なターゲット画像を取得するために一次画像の深度情報に基づいて一次画像のためのぼかしプロセスを行うように構成される。
本開示の一実施形態では画像処理のための別の装置が提供される。図4に基づく図5に示されるように、本装置は決定モジュール45も含む。
決定モジュール45は、周囲光の輝度を決定し、次いで周囲光の輝度に基づいてnとmの値を決定するように構成される。
nとmの値は各々、周囲光の輝度と反比例関係にある。あるいは、nとmの値は同じである。nとmの値は、2以上6以下の範囲内である。
具体的には、決定モジュール45は、一次カメラと二次カメラのISO感度値をそれぞれ読み取り、読み取られた一次カメラと二次カメラのISO感度値に基づいて周囲光の輝度を取得するように構成される。
本実施形態では、一次カメラが第1の画像を取り込み、二次カメラが第2の画像取り込んだ後、一次画像と二次画像とをそれぞれを取得するためにn個の第1の画像とm個の第2の画像とに対してそれぞれ合成・ノイズ除去プロセスが行われる。次いで、一次画像と二次画像とに基づいて一次画像の深度情報が取得され、最後に、必要なターゲット画像を取得するために一次画像の深度情報に基づいて一次画像のためのぼかしプロセスが行われる。n個の第1の画像に対して合成・ノイズ除去プロセスを行うことによって一次画像が取得され、m個の第2の画像に対して合成・ノイズ除去プロセスを行うことによって二次画像が取得されるという方法が用いられるので、画像のノイズが低減され、これにより、既存の技術におけるぼかしプロセスを行った後の画像効果が不十分であるという技術的問題が解決される。
上記の実施形態における方法についての上記の説明は、ここには記載されない、本開示の本例示的実施形態の装置にも当てはまることに留意されたい。
上記の実施形態を達成するために、本開示は、移動端末をさらに提供する。図6は、本開示の一実施形態による移動端末の構造概略図である。図6に示されるように、移動端末1000は、ハウジング1100と、ハウジング1100に配置された一次カメラ1112、二次カメラ1113、メモリ1114およびプロセッサ1115とを含む。
メモリ1114は、実行可能プログラム命令を格納するように構成される。プロセッサ1115は、前の実施形態のデュアルカメラに基づく画像処理のための方法を行うように、メモリ1114内の実行可能プログラム命令を読み取って実行可能プログラム命令に対応する手順を実施するように構成される。
一次カメラ1112の画角は二次カメラ1113の画角以下であり得る。よって、一次カメラ1112の画像領域は二次カメラ1113の画像領域に含まれる。その場合一次カメラ1112の主要部分の深度情報が計算される。
上記の実施形態を実現するために、本開示は、不揮発性コンピュータ可読メモリ媒体をさらに提供し、メモリ媒体に格納された命令が移動端末のプロセッサにおいて動作すると、上記の実施形態の画像処理のための方法が実施される。
上記の移動端末は、ハードウェアまたはソフトウェア構成要素によって達成され、ISP(Image Signal Processing(画像信号処理))パイプラインを備えた様々な処理装置を含み得る、画像処理回路も含む。図7は、本開示の一実施形態による画像処理回路の概略図である。図7に示されるように、説明の便宜上、本開示の実施形態における画像処理技術に関連した構成要素のみが示されている。
図7に示されるように、画像処理回路は、ISPプロセッサ940と論理コントローラ950とを含む。画像機器910によって取り込まれた画像データはISPプロセッサ940によってまず処理される。ISPプロセッサ940は、画像機器910の1つまたは複数の制御パラメータを決定するように構成される画像統計情報を取り込むために画像データを解析する。画像機器910は、一次カメラと二次カメラである、デュアルカメラを含む。各カメラは、1つまたは複数のレンズ912とイメージセンサ914を含む。イメージセンサ914は、カラー・フィルタ・アレイ(ベイヤフィルタなど)を含み得る。イメージセンサ914は、イメージセンサ914の各画素によって取り込まれた光強度と波長情報とを取得し、ISPプロセッサ940によって処理されるべき元の画像データを提供し得る。センサ920は、センサ920のインターフェースのタイプに従ってISPプロセッサ940に元の画像データを提供し得る。センサ920のインターフェースは、SMIA(Standard Mobile Imaging Architecture)インターフェース、シリアルもしくはパラレルカメラインターフェース、または上記インターフェースの組み合わせであり得る。
ISPプロセッサ940は、様々なフォーマットで画素ごとに元の画像データを処理し得る。例えば、各画素は、8、10、12、または14ビットのビット深度を有し、ISPプロセッサ940は、元の画像データについて1つまたは複数の画像処理操作を行い、画像データの統計情報を収集し得る。画像処理操作は、同じビット深度または異なるビット深度に従って行われ得る。
ISPプロセッサ940は、画像記憶装置930から画素データをさらに受け取り得る。例えば、元の画素データが、イメージセンサ914のインターフェースを介して画像記憶装置930に送られてもよく、次いで、画像記憶装置930に格納された元の画素データは、処理されるためにISPプロセッサ940に送られる。画像記憶装置930は、記憶装置の一部、または記憶装置もしくは電子デバイス内の独立した専用記憶域であり、DMA(Direct Memory Access(ダイレクトメモリアクセス))プロパティを有し得る。
イメージセンサ920のインターフェースまたは画像記憶装置930から元の画像データを受け取ると、ISPプロセッサ940は、時間領域フィルタリング操作などの1つまたは複数の画像処理操作を行い得る。処理された画像データは、表示される前に他のプロセスを行うために画像記憶装置930に送られ得る。ISPプロセッサ940は、画像記憶装置930から処理されたデータを受け取り、次いで処理されたデータのプリミティブ領域ならびにRGBおよびYCbCr色空間の画像処理操作を行うので、処理されたデータは、ビューアによって表示され、かつ/またはグラフィックスエンジンもしくはGPU(Graphics Processing Unit(グラフィックス処理装置))によってさらに処理されるようにディスプレイ970に送られ得る。加えて、ISPプロセッサ940の出力は画像記憶装置930にも送られ、ディスプレイ970は画像記憶装置930から画像データを読み取り得る。一例示的実施形態では、画像記憶装置930は、1つまたは複数のフレームバッファを含むように構成され得る。加えて、ISPプロセッサ940の出力は、画像データを符号化/復号するために、エンコーダ/デコーダ960にも送られ得る。符号化画像データは格納され、ディスプレイ970で表示する前に復号され得る。エンコーダ/デコーダ960は、CPU、またはGPU、またはコプロセッサによって実現され得る。
ISPプロセッサ940によって決定された統計データは、論理コントローラ950に送られ得る。例えば、統計データは、自動露出、自動ホワイトバランス、自動焦点、フリッカ検出、黒レベル補正、レンズ912の影補正などに関連するイメージセンサ940の統計情報であり得る。論理コントローラ950は、1つまたは複数のスレッドを実行するためのCPUまたはマイクロコントローラを含んでいてもよく、1つまたは複数のスレッドは、受け取った統計データに従って画像機器910の制御パラメータを決定し得る。例えば、制御パラメータには、イメージセンサ914の制御パラメータ(ざらつき、露出制御の積分時間など)、カメラのフリッカ制御パラメータ、レンズ912の制御パラメータ(合焦もしくはズームの焦点距離など)、またはこれらのパラメータの組み合わせが含まれ得る。ISP制御パラメータには、自動ホワイトバランスおよび色調整(RGB処理の持続時間におけるものなど)の利得、色補正マトリックス、およびレンズ912の影補正パラメータが含まれ得る。
本明細書の記述においては、実施形態または例に関連して「1つの実施形態」、「いくつかの実施形態」、「例」、「特定の例」、または「いくつかの例」という言及語が、本開示の1つの実施形態または本明細書の例に含まれる特定の特徴、構造、材料、または特性によって記述されている。これらの言及語の概略図は、必ずしも同じ実施形態または例に対するものではない。さらに、特定の特徴、構造、材料、または特性は、適切な方法で組み合わされた実施形態または例のうちのいずれか1つまたは複数であり得る。加えて、相互に矛盾しない場合には、当業者は、異なる実施形態または例を結合し、または組み合わせることもできる。
加えて、「第1」および「第2」という用語は、記述を目的として使用されているにすぎず、相対的な重要度を指示または示唆するものとも、技術的特徴の数を暗黙的に指示するものとも受け取られるべきではない。よって、定義する特徴「第1」および「第2」は、それらの特徴の少なくとも1つを明示的または暗黙的に含み得る。本開示の記述において、「複数」とは、特に明確かつ具体的に定義されない限り、少なくとも2つ、例えば、2つまたは3つを意味する。
流れ図、異なる方法によって記述された任意のプロセスまたは方法を、特定の論理的な機能またはステップを実施するための実行可能命令コードのユニット、フラグメントまたは部分と理解することができる。本開示の実施形態を、機能を果たすために実質的に同時に、または逆の順序で実施できることを当業者は理解するはずである。
流れ図の各ブロックにおける論理ユニットおよび動作は、論理機能を実施するための実行可能命令のシーケンステーブルとして定義されている。実行可能命令のシーケンステーブルは、命令実行システム、装置、または機器(例えば、命令にアクセスし、命令を実行するコンピュータベースのシステム、プロセッサを有するシステム、もしくは命令実行システム、装置、または機器)のための任意のコンピュータ可読媒体において具体化することができる。本開示では、「コンピュータ可読媒体」は、記憶、通信、伝播、伝送のプログラムまたはそれらの組み合わせを含むことができる。「コンピュータ可読媒体」は、電線による接続部分(電子デバイスなど)、ポータブル・コンピュータ・ディスケット(磁気デバイスなど)、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、消去可能書込み可能読取り専用メモリ(EPROMやフラッシュメモリなど)、光ファイバデバイス、およびポータブル・コンパクト・ディスク読取り専用メモリ(CDROMなど)のうちの少なくとも1つを含む。加えて、コンピュータ可読媒体は、プログラムが印刷された紙または適切な媒体でさえもあり得る。例えば、紙または適切な媒体は光学的にスキャンされる。紙または適切な媒体上のプログラムは、コンパイル方式およびインタープリタ方式を使用して電子的に取得され、コンピュータ化されたメモリに格納される。
本開示の各部分は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせとして実施され得ることを理解されたい。上述した実施形態においては、複数の動作または方法がメモリに格納されてもよく、それらは適切な命令実行システムに実装されたソフトウェアまたはファームウェアによって実行される。各ブロックまたは方法における動作が、例えば、ハードウェアにおいて実施され得る場合、別の実施形態の場合と同様に、関連技術における以下の技法のうちの任意の1つまたはそれらの組み合わせが使用され得る。それらの技法には、データ信号上で論理機能を実施する論理ゲート回路のディスクリート論理回路、適切な組み合わせ論理ゲート回路を有する特定用途向け集積回路、プログラマブル・ゲート・アレイ(PGA)、およびフィールド・プログラマブル・ゲート・アレイ(FPGA)が含まれる。
上述した実施形態における動作の前部または一部を、ハードウェアで実行可能なプログラム命令によって実施できることを当業者は理解するはずである。プログラム命令はコンピュータ可読媒体に格納され、プログラム命令は、ブロックにおける動作のうちの少なくとも1つについて行われる。
さらに、機能ユニットの各々は、1つの処理装置において統合され得るか、または別個の物理ユニットであり得る。例えば、2つ以上のユニットが単一のユニットにおいて統合される。統合ユニットは、ハードウェアまたはソフトウェアユニットの形態で実施することができる。1つの実施形態では、統合ユニットが独立した製品として販売または使用されるソフトウェアユニットの形態で実施される場合、統合ユニットをコンピュータ可読記憶媒体に格納することができる。
コンピュータ可読記憶媒体は、読取り専用メモリ、磁気ディスクまたは光ディスクとすることができる。当業者には理解されるように、本開示の前述の好ましい実施形態は、本開示を限定するのではなく例示するためのものである。これらの実施形態は、本開示の趣旨および範囲内に含まれる様々な改変形態および類似した構成を対象とすることが意図されており、そうしたあらゆる改変形態および類似した構造を包含するように、本開示の範囲には最も広い解釈が与えられるべきである。

Claims (15)

  1. 画像処理のための方法であって、
    n個の第1の画像とm個の第2の画像とを取得することであって、前記第1の画像と前記第2の画像とがそれぞれ、一次カメラと二次カメラとによって取り込まれ、前記nと前記mとがどちらも2より大きい整数である、ことと、
    一次画像と二次画像とをそれぞれ取得するために前記n個の第1の画像と前記m個の第2の画像とに対してそれぞれ合成・ノイズ除去プロセスを行うことと、
    前記一次画像と前記二次画像とに基づいて前記一次画像の深度情報を取得することと、
    ターゲット画像を取得するために前記一次画像の前記深度情報に基づいて前記一次画像のためのぼかしプロセスを行うことと
    を含む、方法。
  2. 周囲光の輝度を取得することと、
    前記周囲光の輝度に基づいて前記nと前記mの値を決定することと
    をさらに含み、前記nと前記mの前記値が各々、前記周囲光の輝度と反比例関係にある、請求項1に記載の方法。
  3. 前記周囲光の輝度を取得する前記ブロックが、
    前記一次カメラと前記二次カメラのISO感度値をそれぞれ読み取ることと、
    前記一次カメラの前記ISO感度値と前記二次カメラの前記ISO感度値とに基づいて前記周囲光の輝度を取得することと
    を含む、請求項2に記載の方法。
  4. 前記一次カメラの画角が前記二次カメラの画角よりも大きく、
    前記一次画像と前記二次画像とに基づいて前記一次画像の前記深度情報を取得することの前に、前記方法が、
    前記一次画像の画像領域を前記二次画像と同じにするために前記一次画像を切り取ること
    をさらに含む、請求項1に記載の方法。
  5. 前記一次画像のための前記ぼかしプロセスを行う前記ブロックが、
    前記深度情報に基づいて前記一次画像上の背景領域と前景領域とを識別することと、
    前記背景領域に対して前記ぼかしプロセスを行うことと
    を含む、請求項1に記載の方法。
  6. 前記深度情報が、前記前景領域についての第1の深度情報と前記背景領域についての第2の深度情報とを含み、
    前記背景領域に対して前記ぼかしプロセスを行う前記ブロックが、
    前記第1の深度情報と前記第2の深度情報とに基づいてぼかしレベルを計算することと、
    前記背景領域に対して前記ぼかしレベルで前記ぼかしプロセスを行うことと
    を含む、請求項5に記載の方法。
  7. 前記第2の深度情報が前記背景領域内の画素の深度値を含み、
    前記ぼかしレベルが、前記背景領域内の前記画素のぼかし係数に関連しており、前記ぼかしレベルと各画素の深度値とに基づいて各画素のぼかし係数が計算される、請求項6に記載の方法。
  8. 前記背景領域内の各画素の前記ぼかし係数が、前記ぼかしレベルを各画素の前記深度値で乗算することによって得られる積である、請求項7に記載の方法。
  9. 前記深度情報が前記背景領域についての第2の深度情報を含み、
    前記ぼかしレベルが、前記第2の深度情報と、前記一次カメラの焦点領域についての深度情報との間の差に関連している、請求項5に記載の方法。
  10. 前記二次カメラが前記一次カメラよりも低い解像度を有し、前記二次カメラが、撮影操作が検出されたときに前記一次カメラと前記二次カメラとについて合焦されるように構成される、請求項1から9の少なくとも一項に記載の方法。
  11. 前記一次カメラと前記二次カメラとがそれぞれモータを有し、前記一次カメラが、
    前記二次カメラが合焦されたときに前記二次カメラを合焦させるように構成された前記二次カメラの前記モータの第2の駆動電流を読み取ることと、
    前記一次カメラが前記二次カメラと同じ合焦要件を満たす必要がある場合に、前記第2の駆動電流に従って前記一次カメラの前記モータの第1の駆動電流を決定することと、
    前記第1の駆動電流によって前記一次カメラを合焦させることと
    を含む手段によって合焦される、請求項10に記載の方法。
  12. 前記二次カメラが通常のカメラとデュアルピクセルカメラの一方であり、前記一次カメラが前記通常のカメラと前記デュアルピクセルカメラの他方であるか、または前記二次カメラが広角カメラと望遠カメラの一方であり、前記一次カメラが前記広角カメラと前記望遠カメラの他方である、請求項1から11の少なくとも一項に記載の方法。
  13. 前記n個の第1の画像と前記m個の第2の画像とを取得する前記ブロックが、
    前記n個の第1の画像と前記m個の第2の画像とをそれぞれ取得するために、前記一次カメラと前記二次カメラとが同時に写真撮影することであって、前記n個の第1の画像と前記m個の第2の画像とがそれぞれ連続している、こと
    を含む、請求項1から12の少なくとも一項に記載の方法。
  14. 請求項1から13のいずれか一項に記載の画像処理のための方法を行うように構成された回路を含む、移動端末。
  15. プロセッサによって実行されると、前記プロセッサに、請求項1から13のいずれか一項に記載の画像処理のための方法を行わせる命令を格納した非一時的コンピュータ可読媒体。
JP2020503715A 2017-11-01 2018-08-22 デュアルカメラを使用する画像処理のための方法および移動端末 Active JP7015374B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711060116.4A CN107948500A (zh) 2017-11-01 2017-11-01 图像处理方法和装置
CN201711060116.4 2017-11-01
PCT/CN2018/101806 WO2019085603A1 (en) 2017-11-01 2018-08-22 Method for image-processing and mobile terminal using dual cameras

Publications (2)

Publication Number Publication Date
JP2020528700A true JP2020528700A (ja) 2020-09-24
JP7015374B2 JP7015374B2 (ja) 2022-02-02

Family

ID=61934088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503715A Active JP7015374B2 (ja) 2017-11-01 2018-08-22 デュアルカメラを使用する画像処理のための方法および移動端末

Country Status (6)

Country Link
US (1) US10757312B2 (ja)
EP (1) EP3481047A1 (ja)
JP (1) JP7015374B2 (ja)
KR (1) KR102293443B1 (ja)
CN (1) CN107948500A (ja)
WO (1) WO2019085603A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097434A1 (ja) * 2020-11-09 2022-05-12 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法、および撮像装置
US11729504B2 (en) 2021-08-23 2023-08-15 Samsung Electronics Co., Ltd. Method and electronic device for auto focus of scene

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107948500A (zh) * 2017-11-01 2018-04-20 广东欧珀移动通信有限公司 图像处理方法和装置
CN108534760A (zh) * 2018-05-05 2018-09-14 福建汇川物联网技术科技股份有限公司 一种基于双目摄像机与激光测距传感器的图片测量方法
CN108833832B (zh) * 2018-06-20 2021-03-02 王学军 一种眼镜摄录仪及摄录方法
CN108989671A (zh) * 2018-07-25 2018-12-11 Oppo广东移动通信有限公司 图像处理方法、装置和电子设备
CN109064504B (zh) * 2018-08-24 2022-07-15 深圳市商汤科技有限公司 图像处理方法、装置和计算机存储介质
CN109377460A (zh) * 2018-10-15 2019-02-22 Oppo广东移动通信有限公司 一种图像处理方法、图像处理装置及终端设备
CN109840475A (zh) * 2018-12-28 2019-06-04 深圳奥比中光科技有限公司 人脸识别方法及电子设备
CN109862262A (zh) * 2019-01-02 2019-06-07 上海闻泰电子科技有限公司 图像虚化方法、装置、终端及存储介质
KR102669938B1 (ko) * 2019-01-09 2024-05-27 삼성전자주식회사 이미지 처리 프로세서, 이미지 처리 시스템 및 이미지 처리 프로세서의 동작 방법
KR102597518B1 (ko) 2019-02-20 2023-11-03 삼성전자주식회사 영상에 보케 효과를 적용하는 전자 장치 및 그 제어 방법
US10902265B2 (en) * 2019-03-27 2021-01-26 Lenovo (Singapore) Pte. Ltd. Imaging effect based on object depth information
CN112139997B (zh) * 2019-06-27 2021-10-19 宝山钢铁股份有限公司 一种圆钢修磨质量检测系统中抑制环境光的方法
CN110243338B (zh) * 2019-07-16 2021-06-11 北京宇航时代科技发展有限公司 一种实时动态双目测距方法及系统
CN112991242A (zh) * 2019-12-13 2021-06-18 RealMe重庆移动通信有限公司 图像处理方法、图像处理装置、存储介质与终端设备
CN118396863A (zh) * 2020-08-19 2024-07-26 深圳市锐尔觅移动通信有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
US11641456B2 (en) * 2020-09-14 2023-05-02 Himax Technologies Limited Image rendering method and apparatus
US11790545B2 (en) 2020-09-14 2023-10-17 Himax Technologies Limited Method and apparatus to control light source in structured light imaging
CN116405614B (zh) * 2022-06-10 2024-01-30 上海玄戒技术有限公司 一种镜头阴影校正方法、装置、电子设备、芯片及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174069A (ja) * 2004-12-15 2006-06-29 Canon Inc 撮影装置及び撮影方法
JP2010187250A (ja) * 2009-02-13 2010-08-26 Fujitsu Ltd 画像補正装置、画像補正プログラムおよび画像撮影装置
WO2013047405A1 (ja) * 2011-09-30 2013-04-04 富士フイルム株式会社 画像処理装置及び方法、並びにプログラム
JP2014014076A (ja) * 2012-07-03 2014-01-23 Woodman Labs Inc 3d深度情報に基づいたイメージぼかし

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9578224B2 (en) * 2012-09-10 2017-02-21 Nvidia Corporation System and method for enhanced monoimaging
CN104253939A (zh) * 2013-06-27 2014-12-31 聚晶半导体股份有限公司 调整对焦位置的方法及电子装置
US9473708B1 (en) * 2013-08-07 2016-10-18 Google Inc. Devices and methods for an imaging system with a dual camera architecture
EP3099044B1 (en) * 2014-05-15 2018-12-26 Huawei Technologies Co. Ltd. Multi-frame noise reduction method and terminal
TWI549500B (zh) 2014-09-12 2016-09-11 聚晶半導體股份有限公司 影像擷取方法及使用此方法之影像擷取裝置
KR102195311B1 (ko) 2014-09-15 2020-12-24 삼성전자주식회사 이미지의 잡음 특성 개선 방법 및 그 전자 장치
CN104333700B (zh) * 2014-11-28 2017-02-22 广东欧珀移动通信有限公司 一种图像虚化方法和图像虚化装置
CN105100615B (zh) * 2015-07-24 2019-02-26 青岛海信移动通信技术股份有限公司 一种图像的预览方法、装置及终端
CN105635575B (zh) * 2015-12-29 2019-04-12 宇龙计算机通信科技(深圳)有限公司 成像方法、成像装置和终端
CN105763813A (zh) * 2016-04-05 2016-07-13 广东欧珀移动通信有限公司 一种拍照方法、装置及智能终端
US10097765B2 (en) * 2016-04-20 2018-10-09 Samsung Electronics Co., Ltd. Methodology and apparatus for generating high fidelity zoom for mobile video
CN106127698A (zh) 2016-06-15 2016-11-16 深圳市万普拉斯科技有限公司 图像降噪处理方法和装置
KR102622754B1 (ko) * 2016-09-07 2024-01-10 삼성전자주식회사 이미지 합성 방법 및 이를 지원하는 전자 장치
CN106960413A (zh) 2017-03-24 2017-07-18 深圳市金立通信设备有限公司 一种图像虚化的方法及终端
CN107085825A (zh) 2017-05-27 2017-08-22 成都通甲优博科技有限责任公司 图像虚化方法、装置及电子设备
US20190001475A1 (en) * 2017-06-30 2019-01-03 Jeffrey S. Vitek Stapler for a Fence Post
CN109474780B (zh) * 2017-09-07 2023-07-25 虹软科技股份有限公司 一种用于图像处理的方法和装置
US10951834B2 (en) * 2017-10-03 2021-03-16 Corephotonics Ltd. Synthetically enlarged camera aperture
CN107948500A (zh) 2017-11-01 2018-04-20 广东欧珀移动通信有限公司 图像处理方法和装置
CN107959778B (zh) * 2017-11-30 2019-08-20 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006174069A (ja) * 2004-12-15 2006-06-29 Canon Inc 撮影装置及び撮影方法
JP2010187250A (ja) * 2009-02-13 2010-08-26 Fujitsu Ltd 画像補正装置、画像補正プログラムおよび画像撮影装置
WO2013047405A1 (ja) * 2011-09-30 2013-04-04 富士フイルム株式会社 画像処理装置及び方法、並びにプログラム
JP2014014076A (ja) * 2012-07-03 2014-01-23 Woodman Labs Inc 3d深度情報に基づいたイメージぼかし

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022097434A1 (ja) * 2020-11-09 2022-05-12 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法、および撮像装置
US11729504B2 (en) 2021-08-23 2023-08-15 Samsung Electronics Co., Ltd. Method and electronic device for auto focus of scene

Also Published As

Publication number Publication date
WO2019085603A1 (en) 2019-05-09
JP7015374B2 (ja) 2022-02-02
EP3481047A1 (en) 2019-05-08
CN107948500A (zh) 2018-04-20
US20190130533A1 (en) 2019-05-02
KR102293443B1 (ko) 2021-08-25
US10757312B2 (en) 2020-08-25
KR20200031168A (ko) 2020-03-23

Similar Documents

Publication Publication Date Title
JP7015374B2 (ja) デュアルカメラを使用する画像処理のための方法および移動端末
JP6911192B2 (ja) 画像処理方法、装置および機器
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
JP7145208B2 (ja) デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体
KR102306283B1 (ko) 이미지 처리 방법 및 장치
KR102266649B1 (ko) 이미지 처리 방법 및 장치
KR20200041382A (ko) 듀얼 카메라 기반 이미징 방법, 이동 단말기 및 저장 매체
KR102304784B1 (ko) 더블 카메라 기반 이미징 방법 및 장치
CN107872631B (zh) 基于双摄像头的图像拍摄方法、装置及移动终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220121