JP2020528622A - 画像処理方法、装置および機器 - Google Patents

画像処理方法、装置および機器 Download PDF

Info

Publication number
JP2020528622A
JP2020528622A JP2020503823A JP2020503823A JP2020528622A JP 2020528622 A JP2020528622 A JP 2020528622A JP 2020503823 A JP2020503823 A JP 2020503823A JP 2020503823 A JP2020503823 A JP 2020503823A JP 2020528622 A JP2020528622 A JP 2020528622A
Authority
JP
Japan
Prior art keywords
image
primary
images
depth information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020503823A
Other languages
English (en)
Other versions
JP6911192B2 (ja
Inventor
オウヤン、ダン
タン、グオフイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2020528622A publication Critical patent/JP2020528622A/ja
Application granted granted Critical
Publication of JP6911192B2 publication Critical patent/JP6911192B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/52Parallel processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

画像処理方法、装置および機器が提供される。本方法は、複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御することと、一次画像から基準一次画像を取得し、二次画像から基準一次画像と同時に取り込まれた基準二次画像を取得することと、マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出すと同時に、基準一次画像と基準一次画像とに従って深度情報を取得するために第2のスレッドを呼び出すことと、深度情報に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行うことと、を含む。よって、深度情報計算の正確さおよび画像処理効率が向上する。

Description

記載される実施形態は、画像処理技術の技術分野に関し、特に、画像処理方法、装置、および機器に関する。
端末機器の製造技術の進歩に伴い、現在の多くの端末機器にはデュアルカメラが搭載されている。一般に、デュアルカメラは、ユーザの多様な要件を満たすために、深度情報に従って相関画像処理操作を行うように、深度情報を取得するために広く使用される。
しかしながら、従来技術では、深度情報を計算するのに長時間を要するので、深度情報に従って相関画像処理操作を行うのに長時間を要し、画像処理効率が低い。
本開示の一実施形態によって解決されるべき技術的問題は、深度情報計算の正確さおよびその画像処理効率を向上させるためのものである、画像処理方法、画像処理装置およびコンピュータ機器を提供することである。
本開示の一実施形態による画像処理方法は、複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御することと、複数の一次画像から基準一次画像を取得し、複数の二次画像から同じグループ内の基準一次画像と同時に取り込まれた基準二次画像を取得することと、マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように複数の一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出すと同時に、基準一次画像と基準二次画像とに従って深度情報を取得するために第2のスレッドを呼び出すことと、深度情報に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行うことと、を含む。
本開示の別の実施形態による画像処理装置は、複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御するように構成された、撮影モジュールと、複数の一次画像から基準一次画像を取得し、複数の二次画像から同じグループ内の基準一次画像と同時に取り込まれた基準二次画像を取得するように構成された、第1の取得モジュールと、マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように複数の一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出すと同時に、基準一次画像と基準二次画像とに従って深度情報を取得するために第2のスレッドを呼び出すように構成された、第2の取得モジュールと、深度情報に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行うように構成された、処理モジュールと、を含む。
本開示の他の実施形態によるコンピュータ機器は、不揮発性記憶装置とプロセッサと、を含み、記憶装置は、プロセッサによって呼び出され、プロセッサで動作することができるコンピュータプログラムを格納し、コンピュータプログラムがプロセッサによって呼び出され、プロセッサで動作すると、上記に記載の方法が実施される。
本開示の実施形態に記載される技術的解決策をより明確にするために、実施形態の説明に使用される図面について簡単に説明する。明らかに、下記の図面は限定のためではなく例示のためのものにすぎない。当業者であれば、何ら発明的作業を行わずに、これらの図面に基づいて他の図面を取得し得ることを理解されたい。
本開示の一実施形態による画像処理方法の流れ図である。 本開示の一実施形態による三角測定の原理概略図である。 本開示の一実施形態による、デュアルカメラによる深度情報取得の概略図である。 本開示の一実施形態による、場面における画像処理方法実施の概略図である。 本開示の特定の実施形態による画像処理方法の流れ図である。 本開示の一実施形態による画像処理装置の構造概略図である。 本開示の別の実施形態による画像処理装置の構造概略図である。 本開示の他の実施形態による画像処理装置の構造概略図である。 本開示の一実施形態による画像処理回路の概略図である。 本開示の別の例示的実施形態による別の画像処理回路の概略図である。
その例が添付の図面に示されている本開示の以下の実施形態について詳細に説明する。図面において、同じかもしくは類似した参照番号は、全体を通して、同じかもしくは類似した要素または同じかもしくは類似した機能を果たす要素を表すために使用されている。添付の図面を参照して以下で説明される実施形態は例示にすぎず、すなわちそれらの実施形態は、本開示を限定するのではなく説明するためのものである。
以下において、本開示の実施形態で提供される画像処理方法、装置および機器について、図面を参照しながら説明する。
本開示の実施形態における画像処理方法は、携帯電話、テーブルPC、パーソナル・デジタル・アシスタント、ウェアラブル機器などのデュアルカメラを備えたハードウェア装置によって実施され得る。ウェアラブル機器は、スマートブレスレット、スマートウォッチ、スマートグラスなどであり得る。
図1は、本開示の一例示的実施形態による画像処理方法の流れ図である。図1に示されるように、本方法は以下を含む。
ブロック101で、複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御する
本開示の実施形態では、一次カメラによって取り込まれた一次画像と二次カメラによって取り込まれた二次画像とが、計算によって一次画像と二次画像とにおける同じ物体の深度情報を獲得するために使用され、一次画像は最終的に画像化される実際の画像の基礎画像である。一次画像と二次画像とに従って深度情報を計算するときに一次画像が二次画像と大幅に異なることによって生じる計算された深度情報が不正確であるという問題、または一次画像が不明瞭であることによって生じる最終画像化画像が不十分な画像効果を有するという問題の発生を回避するために、一次カメラは複数の一次画像を取り込むよう制御され、同時に二次カメラも複数の二次画像を取り込むよう制御されるので、深度情報の正確さおよび最終画像効果を向上させるように、複数の一次画像と複数の二次画像の中から最適な画像が選択され得る。複数の一次画像と複数の二次画像とは、同じ撮影命令または同じ撮影操作に従って事前設定期間(1秒など)中に取り込まれ得る。加えて、複数の一次画像と複数の二次画像とは同じ頻度の下で取り込まれるので、複数の一次画像のうちの任意の1つの画像が対応する二次画像と同時に取り込まれ、複数の一次画像の任意の1つの画像と対応する同時に取り込まれた二次画像とは同じグループ内にある。
当然ながら、関連技術において、デュアルカメラは低照度条件では不十分な画像効果を有する。高照度条件では、デュアルカメラは一般に、十分な照度による優れた画像効果を有する。高照度条件で取り込まれた一次画像と二次画像とは、一般に高解像度を有するので、一次カメラと二次カメラとは、1つの一次画像と1つの二次画像のみを同時に取り込むよう制御され、一般に、高い正確さで深度情報を計算し、優れた最終画像効果を達成することが保証され得る。したがって、システム全体の処理圧力を低減させるために、本開示では、低照度条件でのみ複数の一次画像と複数の二次画像とを取り込み得る。
詳細には、本開示の一実施形態では、撮影環境の輝度が検出され、例えば、撮影環境の輝度が端末機器に配置された光センサによって検出される。その輝度が事前設定閾値より低いことを検出した場合、それは、現在の環境の輝度が端末機器の画像効果に影響を及ぼし得ることを意味し、よって一次カメラと二次カメラとは、複数の一次画像と複数の二次画像とを同時に取り込むよう制御される。
事前設定閾値は、大量の実験データによる、環境の輝度が画像効果に影響を及ぼすことになるかどうかを判断するための基本的な輝度値であり得る。事前設定閾値は、端末機器の画像ハードウェアに関連していてもよく、画像ハードウェアの光感度はより高く、事前設定閾値はより低い。
ブロック102で、複数の一次画像から基準一次画像を取得し、複数の二次画像から同じグループ内の基準一次画像と同時に取り込まれた基準二次画像を取得する。
ブロック103で、マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように複数の一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出すと同時に、基準一次画像と基準二次画像とに従って深度情報を取得するために第2のスレッドを呼び出す。
上記に示されるように、デュアルカメラは、一次画像と二次画像とを使用して深度情報を計算する。デュアルカメラによって深度情報をどのようにして取得するかをより明確に説明するために、デュアルカメラによって深度情報を取得する原理を、図面を参照して説明する。
実際の適用に際して、目は立体視に基づいて深度情報を識別し、これは深度情報を識別するデュアルカメラの原理と同じであり、主に、図2に示される三角測定の原理によって達成される。図2では、画像化物体、デュアルカメラの位置ORおよび位置OT、ならびにデュアルカメラの焦点面が実際の空間に示されている。焦点面は、デュアルカメラがそれぞれ位置する平面から距離fの間隔で配置されており、デュアルカメラは2つの画像を取り込むためにそれぞれ焦点面において結像する。
点Pと点P’とは、2つの異なる取り込み画像における同じ物体の位置である。P点は、点Pが位置する、画像の左端境界から、距離XRの間隔で配置されており、P’点は、点P’点が位置する、別の画像の左端境界から、距離XTの間隔で配置されている。点ORと点OTとはそれぞれ2つのカメラを表し、2つのカメラは同じ平面上に配置されており、互いから距離Bの間隔で配置されている。
三角測定の原理によれば、図2に示される物体は、2つのカメラが位置する平面から、距離Zの間隔で配置されており、距離Zは式
を満たす。
したがって、
と結論づけることができ、式中、dは、2つの異なる取り込み画像における同じ物体の位置間の差である。B、fは一定値であるので、物体の距離Zは、差dに従って決定され得る。
言い換えると、深度情報は、式
を満たす三角測定によって取得でき、式中、Bは、一次カメラと二次カメラとの間の距離であり、fは、焦点面と、一次カメラおよび二次カメラの平面との間の距離であり、Zは、物体と、一次カメラおよび二次カメラの平面との間の距離であり、深度情報を表し、物体は、第1の点で基準一次画像において結像され、物体は、第2の点で基準二次画像においても結像され、XとXの一方は、第1の点と基準一次画像の左端境界との間の距離であり、XとXのもう一方は、第2の点と基準二次画像の左端境界との間の距離であり、dは、距離Xと距離Xとの差であり、基準一次画像内の第1の点と基準二次画像内の第2の点との間の位置差を表す。
当然ながら、一次画像の深度情報を計算するために、三角測定以外の方法が用いられてもよく、例えば、一次カメラと二次カメラとが同じ場面を撮影する場合、場面の物体とカメラとの間の距離は、一次カメラと二次カメラとによって画像化された画像間の変位差または姿勢差に比例する。したがって、本開示の一実施形態では、距離Zは、この割合に従って獲得され得る。
言い換えると、本開示の一実施形態では、物体と、一次カメラおよび二次カメラが位置する平面との間の距離が、どちらも同じ物体に対応している基準一次画像と基準一次二次画像の画像点間の変位差または姿勢差に、比例係数coで比例するので、深度情報は、比例係数と変位差または姿勢差とに従って取得される。
例えば、図3に示されるように、一次カメラによって取り込まれた一次画像と二次カメラによって取り込まれた二次画像とが、視差画像によって表される差を有する点を計算するために使用される。視差画像は、2つの画像内の各同じ点の位置間の変位差を示す。変位差は三角測量位置において距離Zに比例するので、視差画像は、深度情報を直接示すための画像としてよく使用される。
以上から、深度情報を獲得するためにデュアルカメラが使用される場合、異なる画像内の同じ物体の位置を取得する必要があるので、深度情報を獲得するためにデュアルカメラによって取り込まれた2つの画像はより近似しており、深度情報獲得の効率および深度情報の正確さはより高いことが分かる。
本開示の実施形態では、一次カメラと二次カメラとが複数の一次画像と複数の二次画像とを同時に取り込むので、同時に取り込まれた一次画像と二次画像とが同じグループに属し、互いに非常に近似しており、マルチフレーム合成ノイズ低減プロセスを行う前のソース一次画像とソース二次画像とが深度情報を獲得するために使用され、それによって正確な深度情報の獲得が保証されることが理解されよう。
当然ながら、上記で述べられているように、低照度条件などの、不十分な環境で撮影する場合、複数の一次画像と複数の二次画像とは高いノイズを有し、よって、この場面の下では、深度情報の正確さをさらに向上させるために複数の二次画像についてのマルチフレームノイズ低減が行われ、次いで、ノイズ低減後の二次画像と一次画像とに従って深度情報が計算され得る。
詳細には、複数の一次画像の中から基準一次画像が選択され、複数の一次画像の中から基準二次画像が選択され、基準二次画像は同じグループ内の基準一次画像と同時に取り込まれた画像である。実際の適用に際しては、一次カメラと二次カメラとは、実際の撮影プロセスにおいて同じ頻度の下で複数の一次画像と複数の二次画像とを同時に取り込み、同時に取り込まれた一次画像と二次画像とは同じグループ内にあることに留意されたい。例えば、時系列に沿って、一次カメラによって取り込まれた複数の一次画像は、一次画像11、一次画像12、……を含み、二次カメラによって取り込まれた複数の二次画像は、二次画像21、二次画像22、……を含み、一次画像11と二次画像21とは同じグループ内にあり、一次画像12と二次画像22とは同じグループ内にあり、以下同様である。深度情報獲得の効率および深度情報の正確さをさらに向上させるために、基準一次画像は、複数の一次画像の中から選択された高解像度を有する一次画像であり得る。あるいは、多くの画像を取り込むときに、高解像度を有する一部の一次画像と一部の二次画像とが予め選択され、次いで、選択効率を向上させるために、それら高解像度を有する一部の一次画像と一部の二次画像の中から、基準一次画像と対応する二次画像とが選択されてもよい。
さらに、深度情報の計算には長時間を要するので、マルチスレッドベースの並列処理機構が開始し、ターゲット一次画像を生成するように一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドが呼び出され、同時に、基準一次画像と基準二次画像とに従って深度情報を取得するために第2のスレッドが呼び出される。したがって、一方では、深度情報を計算する間にターゲット一次画像を取得するためにマルチフレーム合成ノイズ低減プロセスによって複数の一次画像が処理され得るので、深度情報を取得した後で深度情報とターゲット一次画像とに従ってぼかしプロセスが直接行われ得る。深度情報をまず取得し、次いで一次画像のためのノイズ低減を行うモードと比較して、本開示は、画像処理効率を大幅に向上させ得る。他方では、マルチフレーム合成ノイズ低減プロセスによって明確な詳細を有するターゲット一次画像を獲得でき、画像品質が高く、ぼかし後の画像効果が優れている。
マルチフレーム合成ノイズ低減プロセスをはっきりと理解するために、低照度場面の下での一次画像のためのマルチフレーム合成ノイズ低減プロセスについて説明する。
環境光が不十分な場合、端末機器などの画像機器は、一般に、機器の撮影感度を自動的に向上させるモードを用いるが、このモードは多くのノイズを含む点を有する画像を生じさせることになる。マルチフレーム合成ノイズ低減プロセスは、高感度条件で撮影された画像品質を向上させるために、画像のノイズを含む点を低減させるように構成される。その原理は、周知のノイズを含む点は無秩序に配置されているという点にある。詳細には、複数の画像を取り込んだ後、同じ位置にあるノイズを含む点は、赤のノイズを含む点、緑のノイズを含む点、または白のノイズを含む点であり得る。具体的には、同じ位置にはどんなノイズを含む点も存在しない。したがって、ノイズを含む点に属する画素点をフィルタリングするための比較およびフィルタリング条件がある。というのは、複数の画像の同じ位置にあるノイズを含む点は互いに打ち消し合い得る異なる画素値を有するが、実際の物体を表示するための複数の画像の同じ位置にある他の画素点は実質的に同じ画素値を有するので、マルチフレーム合成ノイズ低減プロセスは、実際の物体を表示するための実際の画素点からノイズを含む点をフィルタリングし得るからである。加えて、画像はより多く、ノイズを含む点がより正確にフィルタリングされ、実際の物体を表示するための実際の画素点の値が実際の値により近いので、合成画像がより明瞭である。さらに、ノイズを含む点をフィルタリングした後、ノイズを含む点を除去するために、色推測および画素置換プロセスを行うアルゴリズムがさらに用いられ得る。上記プロセスの後、低い画像品質損失でノイズ低減効果を達成することができる。
例えば、単純なマルチフレーム合成ノイズ低減方法では、複数の画像が取り込まれ、複数の画像の同じ位置に対応する画素点の値が読み取られ、画素点の加重平均値が計算され、合成画像の同じ位置で対応する画素点の値が生成され得る。これにより、はっきりした画像を獲得することができる。
ブロック104で、深度情報に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行う。
詳細には、深度情報に従ってターゲット一次画像の背景領域のぼかしプロセスを行うブロックは、以下を含み得るがこれに限定されない。
1つの可能なモード:
深度情報と焦点領域とに従って前景領域の第1の深度情報と背景領域の第2の深度情報とを取得し、第1の深度情報と第2の深度情報とに従ってぼかし強度を生成し、ぼかし強度に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行う。したがって、異なる深度情報に従って異なる度合いでぼかしプロセスが行われ得るので、ぼかし画像がより自然でより階層的になる。
主物体に合焦した後、画像が目にはっきりと見える、主物体が位置する焦点領域の前方の部分と焦点領域の背後の別の部分とを含む空間が、深度情報と呼ばれる深度範囲内にある。焦点領域の前方の部分は前景領域の第1の深度情報に対応しており、焦点領域の背後の別の部分は背景領域の第2の深度情報に対応していることが理解されよう。
場面に従って、前景領域の第1の深度情報と背景領域の第2の深度情報とを決定するために異なるモードが用いられ得ることに留意されたい。それらのモードを以下に示す。
第1のモード:
撮影パラメータを取得し、カメラの撮影式に従って前景領域の第1の深度情報と背景領域の第2の深度情報とを決定する。
この例示的実施形態では、一次カメラの取得される撮影パラメータには、許容される錯乱円直径、絞り値、焦点距離、集束距離などが含まれる。よって、第1の深度情報は、式:
第1の深度情報=(絞り値*許容される錯乱円直径*集束距離の2乗)/(焦点距離の2乗+絞り値*許容される錯乱円直径*集束距離)
によって計算でき、
前景領域は第1の深度情報に従ってそこから分離され、第2の深度情報は、別の式:
第2の深度情報=(絞り値*許容される錯乱円直径*集束距離の2乗)/(焦点距離の2乗−絞り値*許容される錯乱円直径*集束距離)
によって計算され得る。
第2のモード:
デュアルカメラによって取り込まれた現在撮影している画像のデータに従って、焦点領域を除く画像領域の深度マップを決定し、焦点領域の前方の前景領域の第1の深度情報と焦点領域の背後の背景領域の第2の深度情報とを決定する。
詳細には、この例示的実施形態では、2つのカメラが異なる位置に配置されており、撮影ターゲット物体に関連した2つの後置カメラ間にある一定の角度差とある一定の距離差があるので、2つのカメラによって取り込まれたプレビュー画像データ間にある一定の位相差がある。
例えば、撮影ターゲット物体の点Aについて、一次カメラによって取り込まれたプレビュー画像データにおいて、点Aは画素点座標(30,50)に位置し、二次カメラによって取り込まれたプレビュー画像データにおいて、点Aは画素点座標(30,48)に位置し、よって、点Aに対応する2つのプレビュー画像データ内の画素点の位相差は、50−48=2である。
この例示的実施形態では、デュアルカメラの実験データまたはパラメータに従って深度情報と位相差との間の関係が事前構築され、次いで、2つのカメラによって取り込まれたプレビュー画像の各画像点のプレビュー画像データにおける位相差に従って対応する深度情報が探索され得るので、第1の深度情報と第2の深度情報とが容易に取得される。
ぼかし強度に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行うブロックは、異なるモードによって達成されてもよく、それらのモードを以下に例示する。
第1の例:
ぼかし強度と、ターゲット一次画像の背景領域内の各画素の深度情報とに従って各画素のぼかし係数を取得する。ぼかし係数はぼかし強度と関連付けられる。ぼかし係数はより大きく、ぼかし強度はより強い。例えば、各画素のぼかし係数を取得するために、ぼかし強度をターゲット一次画像の背景領域内の各画素の深度情報で乗算した積が計算され、次いで、各画素のぼかし係数に従ってターゲット一次画像の背景領域のためのぼかしプロセスが行われ得る。
第2の例:
第2の深度情報は、焦点領域の深度情報からより遠く離れており、これは、対応する背景領域が焦点領域からより遠く離れており、焦点領域との関連性がより小さく、よって対応するぼかし強度がより大きいことを意味する。この例示的実施形態では、ぼかし強度と、第2の深度情報と焦点領域の深度情報との差との間の対応関係が事前格納され得る。対応関係においては、第2の深度情報と焦点領域の深度情報との差はより大きく、対応するぼかし強度はより大きい。よって、ターゲット一次画像の背景領域の第2の深度情報と焦点領域の深度情報との差が取得され、その差に従って対応するぼかし強度を取得するために対応関係が探索され、ぼかし強度に従って対応する深度情報を用いて背景領域がぼかされ得る。
本開示の実施形態の画像処理効果をはっきりと説明するために、以下に詳細な場面の下でのいくつかの例を示す。
第1の場面:
図4に示されるように、撮影命令を取得した後、一次カメラと二次カメラとは、4つの一次画像と4つの二次画像とを取り込むために、同時に撮影するよう制御される。4つの一次画像は、撮影順序に従ってそれぞれ11、12、13、14と付番され、同様に、4つの二次画像も、それぞれ21、22、23、24と付番される。
一次画像の中から基準一次画像12が選択され、二次画像の中から、同じグループ内の基準一次画像12と同時に取り込まれた基準二次画像22が選択される。次いで、マルチスレッドベースの並列処理機構が開始し、ターゲット一次画像を生成するように一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドが呼び出され、基準一次画像12と基準二次画像22とに従って深度情報を計算するために第2のスレッドが呼び出される。したがって、一次画像のためのノイズ低減プロセスを行うために400msを要し、深度情報を取得するために800msを要する場合、従来技術では、順番に深度情報を計算し、一次画像のためのノイズ低減プロセスを行う必要があり、上記プロセスを完了するのに1200msを必要とする。しかしながら、本開示の画像処理方法は上記プロセスを完了するのに800msで済み、よってその画像処理効率が大幅に向上する。さらに、本開示では、一次カメラは、複数の一次画像を取り込み、複数の一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うので、低照度条件の下で低品質のただ1つの一次画像を処理することによって生じる不十分な画像処理効果しか得られないという問題が回避され、画像処理効果が向上し得る。
第2の場面
この場面の下では、現在の周囲輝度に従ってマルチフレーム合成ノイズ低減プロセスを用いるかどうかが判断され得る。マルチフレーム合成ノイズ低減プロセスは、高照度条件ではなく低照度条件の下で行われ得る。詳細には、図5に示されるように、撮影環境の輝度を検出でき、その輝度が事前設定閾値より低い場合、それは現在の環境が暗いことを意味し、システムは、複数の一次画像と複数の二次画像とを同時に取り込むよう一次カメラと二次カメラとを制御し、よって、一次画像のうちの1つが基準一次画像として選択され、基準一次画像と同時に取り込まれた基準二次画像がその中から選択される(例えば、一次画像の第2のフレームが基準一次画像として選択される場合、二次画像の第2のフレームも基準一次画像として選択されることになる)。
次いで、マルチスレッドベースの並列処理機構が開始し、ターゲット一次画像を生成するように一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドが呼び出され、同時に、基準一次画像と基準二次画像とに従って深度情報を計算するために第2のスレッドが呼び出される。よって、マルチフレーム合成ノイズ低減プロセスと深度情報計算は同時に行われ得る。さらに、深度情報は、マルチフレーム合成ノイズ低減プロセスを行う前の画像によって計算されるので、深度情報計算の正確さが保証され、取得された深度情報とターゲット一次画像とに従ってターゲット一次画像の背景領域のためのぼかしプロセスを行った後に優れた画像処理効果が達成され得る。
要約すると、本開示の実施形態の画像処理方法は、複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御し、複数の一次画像の中から基準一次画像を選択し、複数の二次画像の中から基準一次画像と同時に取り込まれた基準二次画像を選択し、マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように複数の一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出し、基準一次画像と基準一次画像とに従って深度情報を取得するために第2のスレッドを呼び出し、深度情報に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行う。よって、深度情報計算の正確さおよび画像処理効率が向上する。
上記の実施形態を達成するために、本開示は、画像処理装置をさらに提供する。図6は、本開示の一例示的実施形態による画像処理装置の構造概略図である。図6に示されるように、本画像処理装置は、撮影モジュール100と、第1の取得モジュール200と、第2の取得モジュール300と、処理モジュール400と、を含む。
撮影モジュール100は、複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御するように構成される。
本開示の一実施形態では、図6に基づくものである図7に示されるように、撮影モジュール100は、検出部110と撮影部120とを含む。
検出部110は、撮影環境の輝度を検出するように構成される。
撮影部120は、輝度が事前設定閾値より低いことを検出したときに、複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御するように構成される。
第1の取得モジュール200は、一次画像の中から基準一次画像を取得し、二次画像の中から同じグループ内の基準一次画像と同時に取り込まれた基準二次画像を取得するように構成される。
第2の取得モジュール300は、マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出すと同時に、基準一次画像と基準二次画像とに従って深度情報を取得するために第2のスレッドを呼び出すように構成される。
処理モジュール400は、深度情報に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行うように構成される。
本開示の一実施形態では、図6に基づくものである図8に示されるように、処理モジュール400は、取得部410と、生成部420と、処理部430とを含む。
取得部410は、深度情報と焦点領域とに従って前景領域の第1の深度情報と背景領域の第2の深度情報とを取得するように構成される。
生成部420は、第1の深度情報と第2の深度情報とに従ってぼかし強度を生成するように構成される。
処理部430は、ぼかし強度に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行うように構成される。
上記の実施形態における方法についての上記の説明は、本開示の本例示的実施形態の装置にも当てはまることに留意されたい。それらは同様の動作原理を有するので、ここではこれについて説明しない。
画像処理装置のモジュールは一例として示すにすぎない。他の実施形態では、画像処理装置は、画像処理装置の機能の全部または一部を完了するために、上記のモジュールとは異なる他のモジュールに分割され得る。
要約すると、本開示の例示的実施形態の画像処理装置は、複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御し、複数の一次画像の中から基準一次画像を選択し、複数の二次画像の中から基準一次画像と同時に取り込まれた基準二次画像を選択し、マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように複数の一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出し、基準一次画像と基準一次画像とに従って深度情報を取得するために第2のスレッドを呼び出し、深度情報に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行う。よって、深度情報計算の正確さおよび画像処理効率が向上する。
一実施形態において、本開示は、コンピュータ機器をさらに提供する。本コンピュータ機器は、ハードウェアまたはソフトウェア構成要素によって達成され、ISP(Image Signal Processing(画像信号処理))パイプラインを備えた様々な処理装置を含み得る、画像処理回路を含む。図9は、本開示の一例示的実施形態による画像処理回路の概略図である。図9に示されるように、説明の便宜上、本開示の例示的実施形態における画像処理技術に関連した構成要素のみが示されている。
図9に示されるように、画像処理回路は、ISPプロセッサ940と論理コントローラ950とを含む。画像機器910によって取り込まれた画像データはISPプロセッサ940によってまず処理される。ISPプロセッサ940は、画像機器910の1つまたは複数の制御パラメータを決定するように構成される画像統計情報を取り込むために画像データを解析する。画像機器910は、1つまたは複数のレンズ912とイメージセンサ914とを含むカメラであり得る。イメージセンサ914は、カラー・フィルタ・アレイ(ベイヤフィルタなど)を含み得る。イメージセンサ914は、イメージセンサ914の各画素によって取り込まれた光強度と波長情報とを取得し、ISPプロセッサ1040によって処理され得る元の画像データを提供し得る。センサ920(ジャイロスコープなど)は、センサ920のインターフェースのタイプに従ってISPプロセッサ940にセンサ920によって収集された画像処理パラメータ(手ぶれ補正パラメータなど)を提供し得る。センサ920のインターフェースは、SMIA(Standard Mobile Imaging Architecture)インターフェース、シリアルもしくはパラレルのカメラインターフェース、または上記インターフェースの組み合わせであり得る。
加えて、イメージセンサ914は、センサ920に元の画像データを送信することもでき、その場合センサ920は、センサ920のインターフェースのタイプに従ってISPプロセッサ940に元の画像データを提供してもよく、あるいはセンサ920は、元の画像データを画像記憶装置930に格納してもよい。
ISPプロセッサ940は、様々なフォーマットで画素ごとに元の画像データを処理し得る。例えば、各画素は、8、10、12、または14ビットのビット深度を有し、ISPプロセッサ940は、元の画像データについて1つまたは複数の画像処理操作を行い、画像データの統計情報を収集し得る。画像処理操作は、同じビット深度または異なるビット深度に従って行われ得る。
ISPプロセッサ940は、画像記憶装置930から画素データをさらに受け取り得る。例えば、元の画素データが、センサ920のインターフェースを介して画像記憶装置930に送られてもよく、次いで、画像記憶装置930に格納された元の画素データは、処理されるためにISPプロセッサ940に送られる。画像記憶装置930は、記憶装置の一部、または記憶装置もしくは電子デバイス内の独立した専用記憶域であり、DMA(Direct Memory Access(ダイレクトメモリアクセス))プロパティを有し得る。
イメージセンサ914のインターフェース、センサ920のインターフェースまたは画像記憶装置930から元の画像データを受け取ると、ISPプロセッサ940は、時間領域フィルタリング操作などの1つまたは複数の画像処理操作を行い得る。処理された画像データは、表示される前に他のプロセスを行うために画像記憶装置930に送られ得る。ISPプロセッサ940は、画像記憶装置930から処理されたデータを受け取り、次いで処理されたデータのプリミティブ領域ならびにRGBおよびYCbCr色空間の画像処理操作を行うので、ISPプロセッサ940によって処理されたデータは、ビューアによって表示され、かつ/またはグラフィックスエンジンもしくはGPU(Graphics Processing Unit(グラフィックス処理装置))によってさらに処理されるようにディスプレイ970に送られ得る。加えて、ISPプロセッサ940の出力は画像記憶装置930にも送られ、ディスプレイ970は画像記憶装置930から画像データを読み取り得る。一例示的実施形態では、画像記憶装置930は、1つまたは複数のフレームバッファを含むように構成され得る。加えて、ISPプロセッサ940の出力は、画像データを符号化/復号するために、エンコーダ/デコーダ960にも送られ得る。符号化画像データは格納され、ディスプレイ970で表示する前に復号され得る。エンコーダ/デコーダ960は、CPU、またはGPU、またはコプロセッサによって実現され得る。
ISPプロセッサ940によって決定された統計データは、論理コントローラ950に送られ得る。例えば、統計データは、自動露出、自動ホワイトバランス、自動焦点、フリッカ検出、黒レベル補正、レンズ912の影補正などに関連するイメージセンサ914の統計情報であり得る。論理コントローラ950は、1つまたは複数のスレッドを実行するためのCPUまたはマイクロコントローラを含んでいてもよく、1つまたは複数のスレッドは、受け取った統計データに従って画像機器910の制御パラメータとISPプロセッサ940の制御パラメータとを決定し得る。例えば、画像機器910の制御パラメータには、センサ920の制御パラメータ(ざらつき、露出制御の積分時間、手ぶれ補正パラメータなど)、カメラのフリッカ制御パラメータ、レンズ912の制御パラメータ(合焦もしくはズームの焦点距離など)、またはこれらのパラメータの組み合わせが含まれ得る。ISP制御パラメータには、自動ホワイトバランスおよび色調整(RGB処理の持続時間におけるものなど)の利得、色補正マトリックス、およびレンズ912の影補正パラメータが含まれ得る。
別の実施形態において、本開示は、別の画像処理回路をさらに提供する。図10は、本開示の別の例示的実施形態による別の画像処理回路の概略図である。図10に示されるように、画像処理回路は、第1のISPプロセッサ1030と、第2のISPプロセッサ1040と、論理コントローラ1050とを含む。第1のISPプロセッサ1030は、第1のカメラ1010から送られた画像を処理するように構成され、第2のISPプロセッサ1040は、第2のカメラ1020から送られた画像を処理するように構成される。第1のカメラ1010と第2のカメラ1020とは、図9に示される画像機器910として使用されるカメラと同様であってもよく、各々が1つまたは複数のレンズとイメージセンサとを含む。例えば、第1のカメラ1010は、1つまたは複数の第1のレンズ1011と第1のイメージセンサ1012とを含み、同様に第2のカメラも、1つまたは複数の第2のレンズ1021と第2のイメージセンサ1022とを含み、その動作は、図9に示される画像機器910として使用されるカメラの動作と同様であるので、ここではこれについて説明しない。
本開示のこの例示的実施形態では、第1のカメラ1010と第2のカメラ1020との性能パラメータ(焦点距離、開口サイズ、解像度など)は制限されない。いくつかの実施形態では、第1のカメラ1010は、望遠カメラおよび広角カメラのうちの1つであってもよく、第2のカメラ1020もまた、望遠カメラおよび広角カメラのうちの1つであってもよい。第1のカメラ1010と第2のカメラ1020とは、どちらも端末の同じ平面乗に配置されていてもよく、例えば、端末の裏面または前面に同時に配置され得る。端末に配置された第1のカメラ1010と第2のカメラ1020との間の距離は、端末のサイズや撮影効果などによって決定され得る。いくつかの実施形態では、物体を左右のカメラ(すなわち、第1のカメラ1010と第2のカメラ1020と)によって高度にオーバーラップして取り込ませるために、左右のカメラをより近づけて組み立てた方がよく、例えば、左右のカメラ間の距離は10mm以下である。
第1のカメラ1010によって集められた第1の画像が第1のISPプロセッサ1030に送られる。第1の画像を処理した後、第1のISPプロセッサ1030は、論理コントローラ1050に第1の画像の統計データ(画像の輝度、画像のコントラスト値、画像の色など)を送り得る。制御コントローラ1050は、統計データに従って第1のカメラ1010の制御パラメータを決定し得るので、第1のカメラ1010は、自動合焦、自動露出補正などの関連した操作を行い得る。第1のISPプロセッサ1010によって処理された第1の画像は、画像記憶装置1060に格納され得る。第1のプロセッサ1030はまた、処理のために画像記憶装置1060に格納された画像を読み取り得る。加えて、ISPプロセッサ1030によって処理された第1の画像は、表示のためにディスプレイ1070に直接送られ得る。あるいは、ディスプレイ1070は、表示のために画像記憶装置1060に格納された画像を読み取り得る。
第2のカメラ1020は、第1のカメラと同様の処理フローを有する。イメージセンサおよびISPプロセッサは、図9に示される上記のイメージセンサおよび上記のISPプロセッサと同様の機能および処理フローを有するので、ここではこれについて説明しない。
第1のISPプロセッサ1030と第2のISPプロセッサ1040とは、第1のイメージセンサ1012と第2のイメージセンサ1022とからのデータをそれぞれ処理することができる単一のISPプロセッサであるように統合され得ることに留意されたい。
さらに、画像処理回路は、図10に示されてないCPUと電源モジュールとをさらに含み得る。CPUは、構造全体を制御するために、論理コントローラ1050と、第1のISPプロセッサ1030と、第2のISPプロセッサ1040と、画像記憶装置1060と、ディスプレイ1070とに接続される。電源モジュールは、上記のモジュールにそれぞれ電力を供給するように構成される。
以下で、図9または図10に示される画像処理技術によって実現される、
複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御することと、
複数の一次画像から基準一次画像を取得し、二次画像から同じグループ内の基準一次画像と同時に取り込まれた基準二次画像を取得することと、
マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出すと同時に、基準一次画像と基準二次画像とに従って深度情報を取得するために第2のスレッドを呼び出すことと、
深度情報に従ってターゲット一次画像の背景領域のためのぼかしプロセスを行うことと
を含む画像処理方法の各ブロックについて説明する。
上記の実施形態を実現するために、本開示は、不揮発性コンピュータ可読メモリ媒体をさらに提供し、メモリ媒体に格納された命令がプロセッサにおいて動作すると、上記の実施形態の画像処理方法が実施される。
本明細書の記述においては、実施形態または例に関連して「1つの実施形態」、「いくつかの実施形態」、「例」、「特定の例」、または「いくつかの例」という言及語が、本開示の1つの実施形態または本明細書の例に含まれる特定の特徴、構造、材料、または特性によって記述されている。これらの言及語の概略図は、必ずしも同じ実施形態または例に対するものではない。さらに、特定の特徴、構造、材料、または特性は、適切な方法で組み合わされた実施形態または例のうちのいずれか1つまたは複数であり得る。加えて、相互に矛盾しない場合には、当業者は、異なる実施形態または例を結合し、または組み合わせることもできる。
加えて、「第1」および「第2」という用語は、記述を目的として使用されているにすぎず、相対的な重要度を指示または示唆するものとも、技術的特徴の数を暗黙的に指示するものとも受け取られるべきではない。よって、定義する特徴「第1」および「第2」は、それらの特徴の少なくとも1つを明示的または暗黙的に含み得る。本開示の記述において、「複数」とは、特に明確かつ具体的に定義されない限り、少なくとも2つ、例えば、2つまたは3つを意味する。
流れ図、異なる方法によって記述された任意のプロセスまたは方法を、特定の論理的な機能またはステップを実施するための実行可能命令コードのユニット、フラグメントまたは部分と理解することができる。本開示の実施形態を、機能を果たすために実質的に同時に、または逆の順序で実施できることを当業者は理解するはずである。
流れ図の各ブロックにおける論理ユニットおよび動作は、論理機能を実施するための実行可能命令のシーケンステーブルとして定義されている。実行可能命令のシーケンステーブルは、命令実行システム、装置、または機器(例えば、命令にアクセスし、命令を実行するコンピュータベースのシステム、プロセッサを有するシステム、もしくは命令実行システム、装置、または機器)のための任意のコンピュータ可読媒体において具体化することができる。本開示では、「コンピュータ可読媒体」は、記憶、通信、伝播、伝送のプログラムまたはそれらの組み合わせを含むことができる。「コンピュータ可読媒体」は、電線による接続部分(電子デバイスなど)、ポータブル・コンピュータ・ディスケット(磁気デバイスなど)、ランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、消去可能書込み可能読取り専用メモリ(EPROMやフラッシュメモリなど)、光ファイバデバイス、およびポータブル・コンパクト・ディスク読取り専用メモリ(CDROMなど)のうちの少なくとも1つを含む。加えて、コンピュータ可読媒体は、プログラムが印刷された紙または適切な媒体でさえもあり得る。例えば、紙または適切な媒体は光学的にスキャンされる。紙または適切な媒体上のプログラムは、コンパイル方式およびインタープリタ方式を使用して電子的に取得され、コンピュータ化されたメモリに格納される。
本開示の各部分は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせとして実施され得ることを理解されたい。上述した実施形態においては、複数の動作または方法がメモリに格納されてもよく、それらは適切な命令実行システムに実装されたソフトウェアまたはファームウェアによって実行される。各ブロックまたは方法における動作が、例えば、ハードウェアにおいて実施され得る場合、別の実施形態の場合と同様に、関連技術における以下の技法のうちの任意の1つまたはそれらの組み合わせが使用され得る。それらの技法には、データ信号上で論理機能を実施する論理ゲート回路のディスクリート論理回路、適切な組み合わせ論理ゲート回路を有する特定用途向け集積回路、プログラマブル・ゲート・アレイ(PGA)、およびフィールド・プログラマブル・ゲート・アレイ(FPGA)が含まれる。
上述した実施形態における動作の前部または一部を、ハードウェアで実行可能なプログラム命令によって実施できることを当業者は理解するはずである。プログラム命令はコンピュータ可読媒体に格納され、プログラム命令は、ブロックにおける動作のうちの少なくとも1つについて行われる。
さらに、機能ユニットの各々は、1つの処理装置において統合され得るか、または別個の物理ユニットであり得る。例えば、2つ以上のユニットが単一のユニットにおいて統合される。統合ユニットは、ハードウェアまたはソフトウェアユニットの形態で実施することができる。1つの実施形態では、統合ユニットが独立した製品として販売または使用されるソフトウェアユニットの形態で実施される場合、統合ユニットをコンピュータ可読記憶媒体に格納することができる。
コンピュータ可読記憶媒体は、読取り専用メモリ、磁気ディスクまたは光ディスクとすることができる。当業者には理解されるように、本開示の前述の好ましい実施形態は、本開示を限定するのではなく例示するためのものである。これらの実施形態は、本開示の趣旨および範囲内に含まれる様々な改変形態および類似した構成を対象とすることが意図されており、そうしたあらゆる改変形態および類似した構造を包含するように、本開示の範囲には最も広い解釈が与えられるべきである。

Claims (15)

  1. 画像処理方法であって、
    複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御すること(101)と、
    前記複数の一次画像から基準一次画像を取得し、前記複数の二次画像から同じグループ内の前記基準一次画像と同時に取り込まれた基準二次画像を取得すること(102)と、
    マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように前記複数の一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出すと同時に、前記基準一次画像と前記基準二次画像とに従って深度情報を取得するために第2のスレッドを呼び出すこと(103)と、
    前記深度情報に従って前記ターゲット一次画像の背景領域のためのぼかしプロセスを行うこと(104)と
    を含む、画像処理方法。
  2. 複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御する前記ブロックが、
    撮影環境の輝度を検出することと、
    前記輝度が事前設定閾値より低いことを検出したときに、前記複数の一次画像を取り込むよう前記一次カメラを制御すると同時に、前記複数の二次画像を取り込むよう前記二次カメラを制御することと
    を含む、請求項1に記載の方法。
  3. 前記深度情報に従って前記ターゲット一次画像の背景領域のためのぼかしプロセスを行う前記ブロックが、
    前記深度情報と焦点領域とに従って前景領域の第1の深度情報と前記背景領域の第2の深度情報とを取得することと、
    前記第1の深度情報と前記第2の深度情報とに従ってぼかし強度を生成することと、
    前記ぼかし強度に従って前記ターゲット一次画像の前記背景領域のための前記ぼかしプロセスを行うことと
    を含む、請求項1〜2のいずれか一項に記載の方法。
  4. 前記ぼかし強度に従って前記ターゲット一次画像の前記背景領域のための前記ぼかしプロセスを行う前記ブロックが、
    前記ぼかし強度と、前記ターゲット一次画像の前記背景領域内の各画素の深度情報とに従って各画素のぼかし係数を取得することと、
    各画素の前記ぼかし係数に従って前記ターゲット一次画像の前記背景領域のための前記ぼかしプロセスを行うことと
    を含む、請求項3に記載の方法。
  5. 前記ぼかし強度と、前記ターゲット一次画像の前記背景領域内の各画素の深度情報とに従って各画素のぼかし係数を取得する前記ブロックが、
    各画素の前記ぼかし係数を取得するために、前記ぼかし強度を前記ターゲット一次画像の前記背景領域内の各画素の前記深度情報で乗算することによる積を計算すること
    を含む、請求項4に記載の方法。
  6. 前記複数の一次画像と前記複数の二次画像とが、同じ撮影命令または同じ撮影操作に従って事前設定期間中に取り込まれる、請求項1〜5のいずれか一項に記載の方法。
  7. 前記複数の一次画像と前記複数の二次画像とが同じ頻度の下で取り込まれるので、前記複数の一次画像のうちの任意の1つの画像が対応する二次画像と同時に取り込まれ、前記複数の一次画像の前記任意の1つの画像と前記対応する同時に取り込まれた二次画像とが同じグループ内にある、請求項6に記載の方法。
  8. 前記複数の一次画像から基準一次画像を取得し、前記複数の二次画像から同じグループ内の前記基準一次画像と同時に取り込まれた基準二次画像を取得する前記ブロックが、
    前記複数の一次画像と前記複数の二次画像の中から高解像度を有する一部の一次画像と高解像度を有する一部の対応する二次画像とを予め選択することと、
    高解像度を有する前記一部の一次画像の中から前記基準一次画像を選択し、高解像度を有する前記一部の二次画像の中から前記同じグループ内の前記基準一次画像と同時に取り込まれた前記対応する基準二次画像を選択することと
    を含む、請求項1〜7のいずれか一項に記載の方法。
  9. 前記マルチフレーム合成ノイズ低減プロセスが、
    前記複数の一次画像の同じ位置に対応する画素点の値を読み取ることと、
    前記画素点の加重平均値を計算することと、
    合成画像の前記同じ位置で対応する画素点の値を生成することと
    を含む、請求項1〜8のいずれか一項に記載の方法。
  10. 画像処理装置であって、
    複数の一次画像を取り込むよう一次カメラを制御すると同時に、複数の二次画像を取り込むよう二次カメラを制御するように構成された、撮影モジュール(100)と、
    前記複数の一次画像から基準一次画像を取得し、前記複数の二次画像から同じグループ内の前記基準一次画像と同時に取り込まれた基準二次画像を取得するように構成された、第1の取得モジュールと(200)、
    マルチスレッドベースの並列処理機構を開始し、ターゲット一次画像を生成するように前記複数の一次画像のためのマルチフレーム合成ノイズ低減プロセスを行うために第1のスレッドを呼び出すと同時に、前記基準一次画像と前記基準二次画像とに従って深度情報を取得するために第2のスレッドを呼び出すように構成された、第2の取得モジュール(300)と、
    前記深度情報に従って前記ターゲット一次画像の背景領域のためのぼかしプロセスを行うように構成された、処理モジュール(400)と
    を含む、画像処理装置。
  11. 前記撮影モジュール(100)が、
    撮影環境の輝度を検出するように構成された、検出部(110)と、
    前記輝度が事前設定閾値より低いことを検出したときに、前記複数の一次画像を取り込むよう前記一次カメラを制御すると同時に、前記複数の二次画像を取り込むよう前記二次カメラを制御するように構成された、撮影部(120)と
    を含む、請求項10に記載の装置。
  12. 前記処理モジュール(400)が、
    前記深度情報と焦点領域とに従って前景領域の第1の深度情報と前記背景領域の第2の深度情報とを取得するように構成された、取得部(410)と、
    前記第1の深度情報と前記第2の深度情報とに従ってぼかし強度を生成するように構成された、生成部(420)と、
    前記ぼかし強度に従って前記ターゲット一次画像の前記背景領域のための前記ぼかしプロセスを行うように構成された、処理部(430)と
    を含む、請求項10〜11のいずれか一項に記載の装置。
  13. 前記複数の一次画像と前記複数の二次画像とが、同じ撮影命令または同じ撮影操作に従って事前設定期間中に取り込まれる、請求項10〜12のいずれか一項に記載の装置。
  14. 前記複数の一次画像と前記複数の二次画像とが同じ頻度の下で取り込まれるので、前記複数の一次画像のうちの任意の1つの画像が対応する二次画像と同時に取り込まれ、前記複数の一次画像の前記任意の1つの画像と前記対応する同時に取り込まれた二次画像とが同じグループ内にある、請求項13に記載の装置。
  15. 不揮発性記憶装置とプロセッサと、を含むコンピュータ機器であって、前記記憶装置が、前記プロセッサによって呼び出され、前記プロセッサで動作することができるコンピュータプログラムを格納し、前記コンピュータプログラムが前記プロセッサによって呼び出され、前記プロセッサで動作すると、請求項1〜9のいずれか一項に記載の方法が実施される、コンピュータ機器。
JP2020503823A 2017-11-01 2018-08-29 画像処理方法、装置および機器 Active JP6911192B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201711059105.4A CN108055452B (zh) 2017-11-01 2017-11-01 图像处理方法、装置及设备
CN201711059105.4 2017-11-01
PCT/CN2018/102964 WO2019085618A1 (en) 2017-11-01 2018-08-29 Image-processing method, apparatus and device

Publications (2)

Publication Number Publication Date
JP2020528622A true JP2020528622A (ja) 2020-09-24
JP6911192B2 JP6911192B2 (ja) 2021-07-28

Family

ID=62119854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503823A Active JP6911192B2 (ja) 2017-11-01 2018-08-29 画像処理方法、装置および機器

Country Status (6)

Country Link
US (1) US10878539B2 (ja)
EP (1) EP3480783B1 (ja)
JP (1) JP6911192B2 (ja)
KR (1) KR102279436B1 (ja)
CN (1) CN108055452B (ja)
WO (1) WO2019085618A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN108282616B (zh) * 2018-01-31 2019-10-25 Oppo广东移动通信有限公司 图像的处理方法、装置、存储介质及电子设备
CN109803087B (zh) * 2018-12-17 2021-03-16 维沃移动通信有限公司 一种图像生成方法及终端设备
US10902265B2 (en) * 2019-03-27 2021-01-26 Lenovo (Singapore) Pte. Ltd. Imaging effect based on object depth information
CN110324532B (zh) * 2019-07-05 2021-06-18 Oppo广东移动通信有限公司 一种图像虚化方法、装置、存储介质及电子设备
CN110661960B (zh) * 2019-10-30 2022-01-25 Oppo广东移动通信有限公司 摄像模组和电子设备
CN111091513B (zh) * 2019-12-18 2023-07-25 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质及电子设备
CN113095116B (zh) * 2019-12-23 2024-03-22 深圳云天励飞技术有限公司 身份识别方法及相关产品
CN111526353A (zh) * 2020-04-27 2020-08-11 上海济丽信息技术有限公司 一种基于fpga的裸眼3d图像处理驱动电路及其算法
CN114095641A (zh) * 2020-07-21 2022-02-25 珠海格力电器股份有限公司 一种图像的显示方法和装置
CN112188059B (zh) * 2020-09-30 2022-07-15 深圳市商汤科技有限公司 可穿戴设备、智能引导方法及装置、引导系统
CN114727085A (zh) * 2021-01-05 2022-07-08 浙江舜宇智能光学技术有限公司 深度图像成像方法及其装置
CN113810597B (zh) * 2021-08-10 2022-12-13 杭州电子科技大学 一种基于半预测滤波的快速图像散景渲染方法
CN114095713A (zh) * 2021-11-23 2022-02-25 京东方科技集团股份有限公司 成像模组及其处理方法、系统、装置、介质
CN114125299B (zh) * 2021-11-26 2023-10-10 凌云光技术股份有限公司 一种工业相机及其控制方法
CN114302057A (zh) * 2021-12-24 2022-04-08 维沃移动通信有限公司 图像参数确定方法、装置、电子设备及存储介质
CN117671014B (zh) * 2024-02-02 2024-04-19 泰安大陆医疗器械有限公司 一种基于图像处理的机械臂定位抓取方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061743A (ja) * 2011-09-12 2013-04-04 Canon Inc 画像処理装置および画像処理方法
JP2013211827A (ja) * 2012-02-28 2013-10-10 Canon Inc 画像処理方法および装置、プログラム。
JP2015177544A (ja) * 2014-03-14 2015-10-05 ▲ホア▼▲ウェイ▼技術有限公司 画像ぼかし方法および機器、および電子装置
JP2017516358A (ja) * 2014-05-15 2017-06-15 華為技術有限公司Huawei Technologies Co.,Ltd. マルチフレームノイズ低減方法および端末

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018604A (ja) * 2001-07-04 2003-01-17 Matsushita Electric Ind Co Ltd 画像信号符号化方法、画像信号符号化装置および記録媒体
US20060050381A1 (en) * 2002-06-05 2006-03-09 Apostolos Konstantinidis Method and system for stereoscopic representation
KR101510098B1 (ko) * 2007-12-21 2015-04-08 삼성전자주식회사 디지털 영상 처리 장치에서 영상의 배경흐림 효과 처리장치 및 방법
US20100079582A1 (en) 2008-10-01 2010-04-01 Dunsmore Clay A Method and System for Capturing and Using Automatic Focus Information
US20110122224A1 (en) * 2009-11-20 2011-05-26 Wang-He Lou Adaptive compression of background image (acbi) based on segmentation of three dimentional objects
US10134150B2 (en) * 2010-08-10 2018-11-20 Monotype Imaging Inc. Displaying graphics in multi-view scenes
IN2014CN02708A (ja) * 2011-09-28 2015-08-07 Pelican Imaging Corp
WO2013073167A1 (ja) * 2011-11-17 2013-05-23 パナソニック株式会社 画像処理装置、撮像装置および画像処理方法
US9117277B2 (en) * 2012-04-04 2015-08-25 Canon Kabushiki Kaisha Determining a depth map from images of a scene
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
WO2014165244A1 (en) * 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9538081B1 (en) * 2013-03-14 2017-01-03 Amazon Technologies, Inc. Depth-based image stabilization
US9473708B1 (en) * 2013-08-07 2016-10-18 Google Inc. Devices and methods for an imaging system with a dual camera architecture
US9344619B2 (en) * 2013-08-30 2016-05-17 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image
JP6173156B2 (ja) * 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
CN104639926B (zh) 2013-11-11 2018-05-11 聚晶半导体股份有限公司 根据深度信息处理图像的方法及装置
EP2996328A1 (en) 2014-09-12 2016-03-16 Thomson Licensing Image processing method and apparatus, and image capturing device
KR102251483B1 (ko) * 2014-10-23 2021-05-14 삼성전자주식회사 영상을 처리하는 전자 장치 및 방법
CN104778396B (zh) 2015-04-29 2019-01-29 惠州Tcl移动通信有限公司 一种基于环境筛选帧的眼纹识别解锁方法及系统
CN105100615B (zh) * 2015-07-24 2019-02-26 青岛海信移动通信技术股份有限公司 一种图像的预览方法、装置及终端
CN105513007A (zh) 2015-12-11 2016-04-20 惠州Tcl移动通信有限公司 一种基于移动终端的拍照美颜方法、系统及移动终端
CN106921829A (zh) * 2015-12-25 2017-07-04 北京奇虎科技有限公司 一种拍照方法和装置及拍照设备
CN105450931B (zh) * 2015-12-30 2019-04-26 联想(北京)有限公司 一种基于阵列相机的成像方法、装置和电子设备
CN105979165B (zh) * 2016-06-02 2019-02-05 Oppo广东移动通信有限公司 虚化照片生成方法、装置和移动终端
CN106331491A (zh) * 2016-08-29 2017-01-11 广东欧珀移动通信有限公司 一种拍照方法及装置
KR102622754B1 (ko) * 2016-09-07 2024-01-10 삼성전자주식회사 이미지 합성 방법 및 이를 지원하는 전자 장치
US10217195B1 (en) * 2017-04-17 2019-02-26 Amazon Technologies, Inc. Generation of semantic depth of field effect
CN107085825A (zh) 2017-05-27 2017-08-22 成都通甲优博科技有限责任公司 图像虚化方法、装置及电子设备
KR102338576B1 (ko) * 2017-08-22 2021-12-14 삼성전자주식회사 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN108024054B (zh) * 2017-11-01 2021-07-13 Oppo广东移动通信有限公司 图像处理方法、装置、设备及存储介质
CN107959778B (zh) * 2017-11-30 2019-08-20 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置
CN107835372A (zh) * 2017-11-30 2018-03-23 广东欧珀移动通信有限公司 基于双摄像头的成像方法、装置、移动终端和存储介质
CN107948519B (zh) * 2017-11-30 2020-03-27 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN107948520A (zh) * 2017-11-30 2018-04-20 广东欧珀移动通信有限公司 图像处理方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061743A (ja) * 2011-09-12 2013-04-04 Canon Inc 画像処理装置および画像処理方法
JP2013211827A (ja) * 2012-02-28 2013-10-10 Canon Inc 画像処理方法および装置、プログラム。
JP2015177544A (ja) * 2014-03-14 2015-10-05 ▲ホア▼▲ウェイ▼技術有限公司 画像ぼかし方法および機器、および電子装置
JP2017516358A (ja) * 2014-05-15 2017-06-15 華為技術有限公司Huawei Technologies Co.,Ltd. マルチフレームノイズ低減方法および端末

Also Published As

Publication number Publication date
US20190130532A1 (en) 2019-05-02
WO2019085618A1 (en) 2019-05-09
KR20200031689A (ko) 2020-03-24
KR102279436B1 (ko) 2021-07-21
CN108055452B (zh) 2020-09-18
US10878539B2 (en) 2020-12-29
EP3480783B1 (en) 2021-07-07
JP6911192B2 (ja) 2021-07-28
CN108055452A (zh) 2018-05-18
EP3480783A1 (en) 2019-05-08

Similar Documents

Publication Publication Date Title
JP6911192B2 (ja) 画像処理方法、装置および機器
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
JP7015374B2 (ja) デュアルカメラを使用する画像処理のための方法および移動端末
JP7145208B2 (ja) デュアルカメラベースの撮像のための方法および装置ならびに記憶媒体
CN107977940B (zh) 背景虚化处理方法、装置及设备
KR102306283B1 (ko) 이미지 처리 방법 및 장치
JP6903816B2 (ja) 画像処理方法および装置
KR102304784B1 (ko) 더블 카메라 기반 이미징 방법 및 장치
CN107872631B (zh) 基于双摄像头的图像拍摄方法、装置及移动终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210707

R150 Certificate of patent or registration of utility model

Ref document number: 6911192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150