JP2021520154A - 画像処理方法、コンピュータ可読記憶媒体、および電子機器 - Google Patents

画像処理方法、コンピュータ可読記憶媒体、および電子機器 Download PDF

Info

Publication number
JP2021520154A
JP2021520154A JP2020559552A JP2020559552A JP2021520154A JP 2021520154 A JP2021520154 A JP 2021520154A JP 2020559552 A JP2020559552 A JP 2020559552A JP 2020559552 A JP2020559552 A JP 2020559552A JP 2021520154 A JP2021520154 A JP 2021520154A
Authority
JP
Japan
Prior art keywords
image
initial
camera
depth
frame rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020559552A
Other languages
English (en)
Other versions
JP7139452B2 (ja
Inventor
ヤン チェン
ヤン チェン
パン ファン
パン ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Publication of JP2021520154A publication Critical patent/JP2021520154A/ja
Application granted granted Critical
Publication of JP7139452B2 publication Critical patent/JP7139452B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Optics & Photonics (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

画像処理方法、コンピュータ可読記憶媒体、および電子機器が開示される。この方法は、露光期間中に第一のカメラ(102)によって第一のフレームレートで第一の初期画像(802)を取得し(202)、上記露光期間中に第二のカメラ(104)によって第二のフレームレートで少なくとも2つの第二の初期画像(822)を取得するステップと、上記少なくとも2つの第二の初期画像(822)を1つの第二の対象画像にステッチする(204)ステップであって、上記第二の対象画像は深度画像(824)であるステップと、を含む。上記第一のフレームレートは、上記第二のフレームレートよりも小さく、各第二の初期画像(822)は、深度情報を含む画像である。【選択図】図2

Description

本開示は、コンピュータの分野に関し、特に、画像処理方法、コンピュータ可読記憶媒体、および電子機器に関する。
インテリジェント機器は、被写体を撮影する際に、被写体の色情報だけでなく、被写体の深度情報も捕捉することができる。深度情報を用いることにより、画像の色情報をより正確に処理することができる。例えば、深度情報に基づいて画像中の近景と遠景とを識別することができ、これにより、近景と遠景との色を異なる方法で処理することができる。また、深度情報に基づいて、識別された人物の顔が生きているか否かを判定することにより、生きている人物の顔に対して美化処理を施すことができる。画像処理方法を用いて深度情報を捕捉するための方法には、両眼測距法、構造化光法、飛行時間法等数多くある。
しかしながら、深度カメラ(飛行時間(TOF)カメラのような深度画像を捕捉できるカメラ)の捕捉頻度は、可視光カメラの捕捉頻度と一致しない。TOFカメラを例にとると、同一の露光期間中にTOFカメラによって捕捉された画像に、フレーム損失が発生しやすい傾向がある。フレーム損失が一旦発生すると、両眼較正は不正確になり、画像取得システムの安定性が低下する。
電子機器の画像処理方法を提供する。この方法は、露光期間中に第一のカメラによって第一のフレームレートで第一の初期画像を取得し、露光期間中に第二のカメラによって第二のフレームレートで少なくとも2つの第二の初期画像を取得するステップであって、第一のフレームレートは、第二のフレームレートよりも小さく、第二の初期画像のそれぞれは、深度情報を有する画像である、ステップと、さらに処理するために、少なくとも2つの第二の初期画像を1つの深度画像にステッチする(stitching)ステップと、を含むことができる。
コンピュータ可読記憶媒体は、プログラムを記憶し、そのプログラムをプロセッサによって実行すると、プロセッサに上述のような画像処理方法を実行させる。
電子機器が提供される。電子機器は、メモリとプロセッサとを含み、メモリは、コンピュータプログラムを記憶し、そのコンピュータプログラムをプロセッサによって実行すると、プロセッサに上述のような画像処理方法を実行させる。
以下、本開示の実施形態または従来技術において、技術的解決策をより明確に説明するために、実施形態または従来技術の説明に必要な図面を簡単に紹介する。以下に説明する図面は、本開示のいくつかの実施形態に過ぎないことは明らかである。創造的な作業なしに、これらの図面に従って、当業者によって、さらに他の図面も得ることができる。
本発明のいくつかの実施形態による画像処理方法の適用可能な環境を示す図である。 本開示のいくつかの実施形態による画像処理方法のフローチャートである。 本開示のいくつかの実施形態による画像処理方法のフローチャートである。 本開示のいくつかの実施形態による画像処理方法のフローチャートである。 本開示のいくつかの実施形態によって、TOFによる深度情報を計算する原理を示す模式図である。 本開示のいくつかの実施形態による画像処理方法のフローチャートである。 本開示のいくつかの実施形態による画像処理方法のフローチャートである。 本開示のいくつかの実施形態による画像処理フローを示す模式図である。 本開示のいくつかの実施形態による画像処理方法を実施するためのソフトウェアフレームワークを示すブロック図である。 本開示のいくつかの実施形態による画像処理装置のブロック図である。 本開示のいくつかの実施形態による画像処理回路のブロック図である。
本開示の目的、技術的解決策、および利点をより明確にするために、本開示は、図面および実施形態と組み合わせて、以下でさらに詳細に説明される。本明細書で説明される具体的な実施形態は、本開示を説明するためにのみ使用され、本開示を限定することを意図しないことを理解されたい。
本開示で使用される「第一の」、「第二の」等の用語は、様々な構成要素を説明するために本開示で構成され得るが、これらの構成要素を限定することは意図されないことが理解され得る。これらの用語は、第一の構成要素を別の構成要素と区別するためにのみ使用される。例えば、本開示の範囲から逸脱することなく、第一のクライアントを第二のクライアントと呼ぶことができる。同様に、第二のクライアントを第一のクライアントと呼ぶこともできる。第一のクライアントおよび第二のクライアントは、両方ともクライアントであってもよいが、同じクライアントではない。
一態様では、電子機器の画像処理方法を提供することができる。この方法は、露光期間中に第一のカメラによって第一のフレームレートで第一の初期画像を取得し、露光期間中に第二のカメラによって第二のフレームレートで少なくとも2つの第二の初期画像を取得するステップであって、第一のフレームレートは、第二のフレームレートよりも小さく、第二の初期画像のそれぞれは、深度情報を有する画像である、ステップと、さらに処理するために、少なくとも2つの第二の初期画像を1つの深度画像にステッチするステップと、を含むことができる。
いくつかの実施形態において、第二の初期画像のそれぞれは、画像データと、画像データに対応するメタデータとを含む。少なくとも2つの第二の初期画像を1つの深度画像にステッチするステップは、第二の初期画像のそれぞれの画像データおよびメタデータを抽出するステップと、抽出した画像データおよびメタデータをパッケージ化するステップと、パッケージ化した画像データおよびメタデータを深度フォーマットで記憶し、深度画像を生成するステップと、を含む。
いくつかの実施形態において、抽出した画像データおよびメタデータをパッケージ化するステップは、少なくとも2つの初期画像の画像データと、対応するメタデータとをステッチするステップ、または露光タイミングに基づいて、少なくとも2つの第二の初期画像の画像データを順次ステッチするステップを含む。
いくつかの実施形態において、少なくとも2つの第二の初期画像のうちの少なくとも1つは、キーフレームであり、少なくとも2つの第二の初期画像のうちの少なくとも1つは、非キーフレームである。抽出した画像データおよびメタデータをパッケージ化するステップは、キーフレーム内の画素点と非キーフレーム内の対応する画素点との間の位相差を計算するステップと、キーフレームの画像データおよびメタデータを抽出し、計算した位相差とキーフレームの画像データおよびメタデータをパッケージ化するステップと、を含む。
いくつかの実施形態において、メタデータは、第二の初期画像を取得するシーケンスを示すように構成される。少なくとも2つの第二の初期画像を1つの深度画像にステッチするステップは、メタデータに従って、少なくとも2つの第二の初期画像のうちの少なくとも1つが失われたかどうかを判定するステップと、第二の初期画像が全く失われなかったという判定に基づいて、第二の初期画像および対応する識別情報をパッケージ化するステップと、識別情報に従って、パッケージ化した第二の初期画像を深度画像に合成するステップと、を含む。
いくつかの実施形態において、露光期間中に第二のフレームレートで第二のカメラによって少なくとも2つの第二の初期画像を取得するステップは、露光期間中に第二のフレームレートで少なくとも2つのレーザ波を放射するようにレーザエミッタを制御するステップであって、少なくとも2つのレーザ波のそれぞれは反射レーザ波が形成されるように被写体によって反射される、ステップと、露光期間中に反射レーザ波が生成した少なくとも2つの第二の初期画像を、第二のカメラによって取得するステップと、を含む。
いくつかの実施形態において、露光期間中に第二のカメラによって第二のフレームレートで少なくとも2つの第二の初期画像を取得するステップの後、時間差法または位相差法を用いて、少なくとも2つの第二の初期画像に対応する深度情報を計算するステップをさらに含む。
いくつかの実施形態において、露光期間中に第一のカメラによって第一のフレームレートで第一の初期画像を取得し、露光期間中に第二のカメラによって第二のフレームレートで少なくとも2つの第二の初期画像を取得するステップは、画像捕捉命令を検出すると、露光期間中に第一のフレームレートで第一のカメラによって第一の初期画像を取得するステップと、第二の初期画像の数を取得し、第二の初期画像の数および第一のフレームレートに従って、第二のフレームレートを計算するステップと、露光期間中に、計算した第二のフレームレートで、第二のカメラによって第二の初期画像を取得するステップと、を含む。
いくつかの実施形態において、第二の初期画像の数を取得するステップは、予め設定された数の第二の初期画像を取得するステップと、画像捕捉命令に含まれるアプリケーション識別子に対応するアプリケーションレベルを取得し、アプリケーションレベルに従って、対応する数の第二の初期画像を取得するステップと、電子機器のジッタデータを取得し、そのジッタデータに応じて、対応する数の第二の初期画像を取得するステップと、のうちの1つのステップを含む。
いくつかの実施形態において、露光期間中に第一のカメラによって第一のフレームレートで第一の初期画像を取得し、露光期間中に第二のカメラによって第二のフレームレートで少なくとも2つの第二の初期画像を取得した後に、この方法は、第一の初期画像を捕捉する第一の時点と、第二の初期画像のそれぞれを捕捉する第二の時点とを取得するステップと、第一の時点と第二の時点との間の時間間隔が間隔閾値未満であるかどうかを判定するステップと、第一の時点と第二の時点との間の時間間隔が間隔閾値以上であるという判定に基づいて、第一の初期画像および少なくとも2つの初期画像を廃棄するステップと、をさらに含む。
いくつかの実施形態において、この方法は、第一の初期画像に対して第一のフォーマット変換を実行し、第一の対象画像を生成するステップをさらに含むことができる。深度画像と第一の対象画像とは、タイミングが同期して互いに対応する。少なくとも2つの第二の初期画像を1つの深度画像にステッチするステップは、少なくとも2つの第二の初期画像をパッケージ化するステップと、パッケージ化した第二の初期画像に対して第二のフォーマット変換を実行し、深度画像を生成するステップと、を含むことができる。
いくつかの実施形態において、方法は、第一の対象画像内の対象被写体を識別するステップと、深度画像に従って、対象被写体に対応する対象深度情報を取得するステップと、対象深度情報に従って、対象被写体に対する処理を実行するステップと、をさらに含むことができる。
いくつかの実施形態において、第一の初期画像に対して第一のフォーマット変換を実行して、第一の対象画像を生成するステップの後、第一の対象画像内の対象被写体を識別するステップの前に、この方法は、第一の対象画像および深度画像をパッケージ化するステップと、アプリケーションのレベルが閾値より大きい場合、パッケージ化した第一の対象画像および深度画像を暗号化するステップと、暗号化した第一の対象画像および深度画像をアプリケーションに送信するステップと、をさらに含む。
別の態様では、コンピュータ可読記憶媒体を提供することができる。コンピュータ可読記憶媒体は、プログラムを記憶し、このプログラムをプロセッサによって実行すると、プロセッサに上述のような画像処理方法を実行させる。
さらなる態様では、電子機器を提供することができる。電子機器は、メモリおよびプロセッサを含むことができる。メモリは、コンピュータプログラムを記憶し、このコンピュータプログラムをプロセッサによって実行すると、プロセッサに上述のような画像処理方法を実行させる。
図1は、本発明のいくつかの実施形態による画像処理方法の適用可能な環境を示す図である。図1に示すように、2つのカメラを電子機器10上に搭載することができる。いくつかの実施形態において、2つのカメラは、第一のカメラ102および第二のカメラ104を含むことができる。より具体的には、電子機器10は、第一のカメラ102および第二のカメラ104を用いて撮影を実行することができる。より具体的には、第一の初期画像を、露光期間中に第一のフレームレートで第一のカメラによって取得してもよく、少なくとも2つの第二の初期画像を、露光期間中に第二のフレームレートで第二のカメラによって取得してもよい。いくつかの実施形態において、第一のフレームレートは、第二のフレームレートよりも小さくてもよい。次いで、第一の初期画像に基づいて第一の対象画像を生成し、第二の初期画像に基づいて第二の対象画像(以下、「深度画像」とも呼ぶ)を生成してもよい。いくつかの実施形態において、深度画像は、第一の対象画像に対応する深度情報を示すように構成されてもよい。処理は、第一の対象画像および深度画像に基づいて実行されてもよい。電子機器10は、携帯電話、コンピュータ、ウェアラブル装置であってもよく、本明細書で限定されないことは理解されるべきである。いくつかの実施形態において、第一のカメラは、電荷結合素子(CCD)または相補型金属酸化膜半導体(CMOS)カメラ等の可視光カメラ(RGBカメラとも呼ばれる)とすることができる。第二のカメラは、レーザ型の飛行時間(TOF)カメラであってもよい。第二のカメラは、対象被写体の深度情報(すなわち、カメラから対象被写体までの距離の情報)を収集してもよい。
飛行時間(TOF)技術は、高精度距離測定のために、光検出および測距(LIDAR)において使用され得る。TOF技術は、照明ユニットによって放射された光が対象被写体に移動し、検出器に戻るのに要する時間を測定することに基づいている。現在、この原理によれば、標準的なCMOSまたはCCD技術でTOF距離測定、すなわちTOFカメラが達成されている。TOFカメラは、距離画像(RIM)センサとも呼ばれることがある。TOFカメラは他の3Dシステムとは異なり、対象被写体の距離(つまり深度情報)を収集する新世代のカメラになっている。現在、TOF技術は、2つの方法によって達成することができる。第一の方法は、変調されたインコヒーレント光を利用し、位相ベースの測定を行うことができ、これは、位相差法とも呼ばれることがある。第二の方法は、パルス信号の連続的な送受信に基づく時間差に応じて、対象被写体の距離を計算することができ、これは、時間差法とも呼ばれることがある。
図2は、本開示のいくつかの実施形態による画像処理方法のフローチャートである。図2に示すように、画像処理方法は、ブロック202〜208によって実行されるアクション/動作を含むことができる。
ブロック202では、第一の初期画像を、露光期間中に第一のカメラによって第一のフレームレートで取得してもよく、少なくとも2つの第二の初期画像を、露光期間中に第二のカメラによって第二のフレームレートで取得してもよい。いくつかの実施形態において、第一のフレームレートは、第二のフレームレートよりも小さくてもよい。第二のカメラは、TOFカメラ(深度画像を捕捉するように構成された深度カメラの1つのタイプである)であってもよく、第二の初期画像のそれぞれは、深度情報を有する深度画像であってもよい。当然、いくつかの実施形態において、第二のカメラは、また両眼測距法または構造化光法に基づく深度カメラのような他のタイプの深度カメラであってもよい。
電子機器にカメラを搭載し、搭載されたカメラにより画像を取得することができる。カメラは、異なる取得画像に応じて、レーザカメラ、可視光カメラ等に分けることができる。レーザカメラは、被写体にレーザを照射して形成された画像を取得してもよく、可視画像は、被写体に可視光を照射して形成された画像を取得してもよい。複数のカメラを電子機器上に搭載することができ、カメラを搭載するための場所は、ここでは限定されないことがある。例えば、いくつかの実施形態において、電子機器の前面パネルにカメラを搭載することができ、背面パネルに2つのカメラを搭載することができる。カメラは、また、電子機器の内部に埋め込まれてもよく、次いで、カメラは、回転またはスライドによってオンにされてもよい。より具体的には、前方カメラおよび後方カメラを電子機器に搭載することができる。前方カメラと後方カメラとは、それぞれ異なる視野角からの画像を取得することができる。一般に、前方カメラは電子機器の前方視野角から画像を取得することができ、後方カメラは電子機器の後方視野角から画像を取得することができる。
本開示のいくつかの実施形態において、少なくとも2つのカメラを電子機器に搭載することができる。少なくとも2つのカメラは、第一のカメラおよび第二のカメラを含むことができる。第一のカメラおよび第二のカメラは、第一の初期画像を第一のカメラによって取得し、第二の初期画像を第二のカメラによって取得するように、同時に露光するように制御されてもよい。第一のカメラと第二のカメラとの両方が、同じシーンについての画像を取得してもよいことが理解され得る。第一のカメラは第一のフレームレートで第一の初期画像を取得することができ、第二のカメラは第二のフレームレートで第二の初期画像を取得することができる。いくつかの実施形態において、第一のフレームレートは、第二のフレームレートより小さくてもよく、その結果、第二のカメラは、同じ露光期間中に複数の第二の初期画像を取得することができる。
より具体的には、第二のカメラが捕捉した少なくとも2つの第二の初期画像を使用して、1つの画像に合成することができる。このようにして、第二の初期画像を捕捉する際に、第二のカメラによって発生するボイド現象を回避することができ、画像の精度を向上させることができる。例えば、第一のカメラは、30フレーム/秒のレートで第一の初期画像を取得することができ、第二のカメラは、120フレーム/秒のレートで第二の初期画像を取得することができる。したがって、同じ露光期間中に、第一のカメラは1つの第一の初期画像を捕捉し、第二のカメラは4つの第二の初期画像を捕捉する。第二のカメラが第二の初期画像を捕捉するフレームレートは、調節可能であり得ることに留意されたい。第二のフレームレートが120フレーム/秒より大きい場合、同じ露光期間中に、第二のカメラがN(N>4)個の第二の初期画像を捕捉することができる。本開示の実施形態は、これに限定を与えるものではない。
より具体的には、第一の初期画像は、第一のカメラが捕捉した初期画像を参照することができ、第二の初期画像は、第二のカメラが捕捉した初期画像を指すことができる。カメラ内の画像センサは、光信号を電気信号に変換することができる。光信号が電気信号に変換された後、生成された初期画像は、プロセッサによって直接処理されなくてもよく、プロセッサによって処理される前に特定のフォーマットに変換される必要があってもよい。
いくつかの実施形態において、第一のカメラは可視光カメラであってもよく、第二のカメラはレーザカメラであってもよい。第二のカメラに対応するレーザエミッタを電子機器に搭載することができる。レーザエミッタから放射されたレーザを被写体に照射してもよく、レーザを被写体に照射したときに第二の初期画像を生成してもよい。第二の初期画像を、第二のカメラによって取得してもよい。第二の初期画像は、第一の初期画像に対応する深度情報を生成するように構成されてもよい。
いくつかの実施形態において、画像処理方法は、ブロック208によって実行されるアクションをさらに含むことができる。
ブロック208では、第一の初期画像を使用することによって、第一の対象画像を生成することができる。より具体的には、ブロック208は、第一の初期画像に対して第一のフォーマット変換を実行して、第一の対象画像を生成する動作、すなわち、第一の対象画像を上述のようにプロセッサで処理し得る動作のような動作を含むことができる。いくつかの実施形態において、深度画像と第一の対象画像とは、タイミングが同期して互いに対応することができる。
第一のカメラが捕捉した第一の初期画像は、対応する第一の対象画像を生成することができ、これは、プロセッサによって処理することができる。例えば、取得した第一の初期画像は、RAWフォーマットの画像であってもよく、RAWフォーマットからYUV(Luma Chrominance Chroma)フォーマットに変換されてもよい。フォーマット変換後に生成されたYUV画像は、生成された第一の対象画像であり、第一の対象画像は、さらに処理されてもよい。第二のカメラが捕捉した第二の初期画像も、RAWフォーマットの画像であってもよい。少なくとも2つの第二の初期画像を取得するので、第二の初期画像を、1つのDepth画像、すなわち、深度画像(第二の対象画像とも呼ばれる)に合成することができる。
ブロック204では、少なくとも2つの第二の初期画像を1つの深度画像にステッチすることができる。
いくつかの実施形態において、同一の露光期間中に、TOFカメラは、第一のカメラよりもフレームレートが高くすることができ、その結果、TOFカメラが捕捉する第二の初期画像の数を、第一のカメラが捕捉する第一の初期画像の数よりも多くすることができる。例えば、上記の例では、第一のフレームレートは30フレーム/秒であり、第二のフレームレートは120フレーム/秒である。同じ露光期間(例えば、1/30秒)中に、第一のカメラは1つの第一の初期画像を取得し、第二のカメラ(TOFカメラ)は4つの第二の初期画像を同時に取得することができる。しかしながら、フレームレートがより高いTOFカメラは4つの第二の初期画像を捕捉するのに対し、第一のカメラは1つの第一の初期画像を捕捉するが、これは、TOFカメラで捕捉した第二の初期画像の数が第一のカメラで捕捉した第一の初期画像の数と矛盾しないことを意味するので、TOF画像のフレーム損失の問題が簡単に発生する可能性がある。両眼較正に関して言えば、フレーム損失は、タイミングが同期されないことを意味し、これは後の両眼較正に多大な影響を及ぼし、さらに、アプリケーション層内の対象被写体の3Dモデル化にさえも影響を及ぼし、その結果、画像認識システムが不安定なものとなる。
これに基づいて、複数の第二の初期画像をステッチして1つの深度画像を生成する必要がある。すなわち、複数の第二の初期画像を1つの深度画像にステッチすることができる。深度画像と第一の対象画像とは、タイミングが同期して互いに対応することができる。したがって、両眼較正を行い、1つの画像と、対応する深度情報とを得て、その後の3Dモデル化および3Dアプリケーションへの基礎を提供することが便利である。
第二の初期画像のそれぞれは、深度情報を含む画像であり、深度画像は、複数の第二の初期画像を1つの画像にステッチして生成された画像であってもよく、深度画像は、複数の深度情報をさらに含んでいてもよいことに留意すべきである。深度画像は、後続の画像処理において第一のカメラが取得したRGB(Red Green Blue)画像との画像合成のために構成されてもよく、深度情報を有するRGB画像、すなわちRGBD(Red Green Blue Depth)画像が生成されてもよい。
第二の初期画像は、画像データと、画像データに対応するメタデータとを含んでもよい。画像データはRAWデータとも呼ばれ、メタデータはMETAデータとも呼ばれる。RAWフォーマットは、画像処理の分野で一般的に使用されているフォーマットである。RAWフォーマットは、最初に捕捉された初期画像データ、すなわち、後続の画像処理を受けていない初期データを示すように構成されてもよい。METAデータは、現在の画像の露光期間、焦点距離等、現在のRAWデータの属性を示すデータであってもよい。いくつかの実施形態において、ブロック204では、少なくとも2つの第二の初期画像を深度画像にステッチすることは、以下のブロックによって実行されるアクション/動作を含むことができる。
ブロック302では、第二の初期画像のそれぞれの画像データおよびメタデータを抽出することができる。
ブロック304では、抽出した画像データおよびメタデータをパッケージ化することができる。
ブロック304は、具体的には、少なくとも2つの第二の初期画像の画像データと対応するメタデータとをそれぞれステッチすること、あるいは少なくとも2つの第二の初期画像の画像データを露光タイミングに従って順次ステッチすることを含むことができる。
例えば、同一の露光期間中に4つの第二の初期画像を捕捉し、第二の初期画像のそれぞれをTOF画像フォーマットでキャッシュする場合、4つの画像(第二の初期画像)の画像データおよびメタデータを抽出してもよく(TOF画像フォーマットは、ペイロードの画像データおよび非ペイロードの追加情報を含んでもよく、非ペイロードデータは、この時点でフィルタリングされる必要がある)、データのステッチを達成するために、4つの第二の初期画像のそれぞれの画像データおよびメタデータを順次ステッチしてもよい。すなわち、第一の画像、第二の画像、第三の画像、および第四の画像の画像データを、順次ステッチしてもよい。第一の画像の画像日付の最後のビットを、第二の画像の画像日付の第一のビットにステッチすることができ、第二の画像の画像日付の最後のビットを、第三の画像の画像日付の第一のビットにステッチすることができ、以下同様で、最後の画像の画像日付の最後のビットをステッチするまで続く。いくつかの実施形態において、4つの第二の初期画像を1つの画像にステッチ(合成)する場合、データのステッチは、特定の深度画像フォーマットに従って実行してもよく、あるいは特定のフォーマットまたはプロトコルに従って実行してもよい。例えば、RawデータとMetaデータとを交互に配置することも可能である(すなわち、1つの画像のRawデータの後に、同じ画像の対応するMetaデータが続き、次に、次の画像のRawデータ、次の画像のRawデータに対応する次の画像のMetaデータ等が続くような順序で配置することも可能である)。データのステッチは、本開示の実施形態では繰り返されない。
本開示のいくつかの実施形態において、少なくとも2つの第二の初期画像を、時間差法または位相差法を使用することによって取得してもよいことに留意されたい。位相差法を使用する場合、捕捉した少なくとも2つの第二の初期画像のうちの少なくとも1つを、キーフレームとして構成してもよく、捕捉した少なくとも2つの第二の初期画像のうちの少なくとも1つを、非キーフレームとして構成してもよい。この場合、ブロック304では、以下のブロックによって実行されるアクション/動作を含むことができる。
キーフレーム内の画素点と非キーフレーム内の対応する画素点との間の位相差データを計算することができる。
キーフレームの画像データとメタデータを抽出し、計算した位相差データとキーフレームの画像データおよびメタデータとをパッケージ化してもよい。
いくつかの実施形態において、位相差計算方法は、上述の通りであってもよい。キーフレームの画像データおよびメタデータを取得した後、非キーフレームの位相差のみを計算する必要がある、非キーフレーム内の画素点の位相をキーフレーム内の対応する画素点の位相と比較することができ、その結果、差を計算することができる。このように、非キーフレームの位相差を計算することができるので、4つの第二の初期画像の画像データおよびメタデータを全て保持する必要がない。その代わりに、キーフレームの画像データおよびメタデータと、非キーフレーム内の画素点とキーフレーム内の対応する画素点との間の位相差データのみを保持し、それによって、記憶空間をさらに節約することができる。
いくつかの実施形態において、メタデータを、第二の初期画像を捕捉するシーケンスを示すように構成してもよい。少なくとも2つの第二の初期画像を1つの深度画像にステッチするブロックは、具体的には、以下によって実行される動作を含むことができる。
捕捉した第二の初期画像のうちの少なくとも1つが失われたかどうかを、メタデータに従って判定する。捕捉した第二の初期画像が全く失われていないという判定に基づいて、第二の初期画像と、対応する識別情報とをパッケージ化することができる。
パッケージ化した第二の初期画像を、識別情報に従って深度画像に合成することができる。
いくつかの実施形態において、少なくとも2つの第二の初期画像を、第二のカメラが捕捉してもよい。したがって、第二のカメラが第二の初期画像を捕捉した後、第二の初期画像のそれぞれに対応する識別情報を生成することができ、第二の初期画像を捕捉することのシーケンスを識別情報によってマークすることができる。より具体的には、識別情報は、第二の初期画像の捕捉時刻、第二の初期画像の位相等であってもよいが、これらに限定されない。第二の初期画像の捕捉時刻は、第二の初期画像を捕捉する時刻を示すように構成することができる。捕捉時刻に従って、第二の初期画像を捕捉する時系列を判定することができる。第二の初期画像の位相は、第二の初期画像のそれぞれを捕捉することのシーケンスを示すことができる。例えば、第二の初期画像には、捕捉時刻のシーケンスに応じて、「01」、「02」、「03」、「04」というシリアル番号を付してもよい。パッケージ化した第二の初期画像を、識別情報に従って、1つの深度画像に順次合成してもよい。
ブロック306では、パッケージ化した画像データおよびメタデータを深度フォーマットで記憶し、深度画像を生成してもよい。いくつかの実施形態において、記憶した画像データおよびメタデータは、深度画像のデータであってもよい。
ブロック306では、1つの深度画像を構成することができ、深度画像はヌルであり、当初は、その中にデータを全く含まない。対応するパッケージ化したデータ(画像データおよびメタデータ)は、完全なデータを有する1つの深度画像を生成するために、深度画像のデータに順次書き込まれてもよい。深度画像を、バッファ領域に記憶してもよい。例えば、TOFカメラで捕捉した4つの第二の初期画像のそれぞれは、240×180の解像度を有してもよい。画像データとメタデータをパッケージ化し、深度フォーマットで記憶すると、記憶した深度画像は、960×720の解像度を有してもよい。ここで、明らかに、記憶した深度画像は、第二の初期画像のそれぞれの複数倍の解像度を有してもよく、その倍数は、第二の初期画像の数であってもよい。
ブロック206では、深度画像および第一の対象画像をさらに処理することができる。
第一のカメラと第二のカメラは、同一のシーンに対して撮影を行うことができ、その結果、撮影で取得した第一の初期画像と第二の初期画像が互いに対応してもよく、取得した第一のターゲット画像と深度画像も互いに対応してもよいことが理解されるべきである。例えば、第一の対象画像はYUV画像であってもよく、深度画像はDepth画像であってもよい。したがって、第一の対象画像は、撮影シーンの色情報を示すように構成されてもよく、深度画像は、撮影シーンに対応する深度情報を示すように構成されてもよい。
第一の対象画像および深度画像を取得した後に、第一の対象画像および深度画像を処理してもよく、ここでは、具体的な処理方法は限定されない。例えば、第一の対象画像に従って、人物の顔認識処理を実行し、第一の対象画像で認識された人物の顔を、深度画像に従って三次元モデル化し、人物の顔の三次元モデルを取得するようにしてもよい。また、深度画像における深度情報に従って、第一の対象画像内の人物の顔に対して、美化処理を施すことも可能である。
上述の実施形態によって提供される画像処理方法では、第一のカメラは、所与の露光期間中に第一のフレームレートで第一の初期画像を捕捉することができ、第二のカメラは、露光期間中に第二のフレームレートで少なくとも2つの第二の初期画像を捕捉することができる。処理は、第一の初期画像から生成された第一の対象画像と、第二の初期画像から生成された深度画像とに従って、さらに実行されてもよい。このようにして、第一のカメラと第二のカメラとが、同一の露光期間中に、画像を取得できることを確実にすることができる。さらに、第二のカメラは、少なくとも2つの第二の初期画像を同時に取得することができ、少なくとも2つの第二の初期画像に従って、さらなる処理のために最終深度画像を生成することができる。これにより、画像を捕捉する際に発生する誤差を減らすことができ、画像処理の精度を向上させることができる。
上記の実施形態によって提供される画像処理方法では、同一の露光期間中に、第一の初期画像と複数の第二の初期画像とを取得することができる。その後、複数の第二の初期画像を1つの深度画像にステッチすることができる。第一の対象画像および1つの深度画像を、さらに処理してもよい。従来技術のTOFカメラに比べて、本開示のいくつかの実施形態による画像処理方法ではフレーム損失が発生しにくく、それによって、画像処理システムの安定性を向上させることができる。
ここで、ブロック208は、ブロック204の前または後に実行されてもよいし、ブロック204と同時に実行されてもよい。本開示は、ブロック208を実行する時間を限定するものではない。
図4は、本開示のいくつかの実施形態による画像処理方法のフローチャートである。図4に示すように、画像処理方法は、ブロック402〜414によって実行されるアクション/動作を含むことができる。ここで、ブロック402〜406は、上述したように、ブロック202に属していてもよい。すなわち、ブロック202は、ブロック402〜406で実行するアクションを含むことができる。さらに、ブロック204は、ブロック408および410で実行するアクションを含むことができ、ブロック206は、ブロック412および414で実行するアクションを含むことができる。
ブロック402では、画像捕捉命令を検出すると、露光期間中に第一のフレームレートで第一のカメラによって第一の初期画像を取得することができる。
画像捕捉命令とは、画像捕捉動作をトリガする命令であってもよい。例えば、ユーザはアプリケーションを開いてもよく、画像捕捉命令をアプリケーションの操作で生成してもよい。電子機器が画像捕捉命令を検出すると、カメラがオンになることもある。カメラがオンになった後、カメラの受光面に光を投射する期間は、シャッタを開く期間を制御することによって制御してもよい。長い期間にわたってシャッタを開くと、より多くの光がカメラに入射し、生成された画像の輝度が高くなることがある。例えば、周囲光が明るい場合、一般に、短い期間にわたってシャッタを開くように制御して、少数の光がカメラに入射するようにすることで、生成された画像が過度に明るくなるのを防ぐことができる。
露光期間とは、カメラのシャッタを開くように制御する期間を指すことがある。露光期間に従って、シャッタを開く時間の時刻と、シャッタを開く期間とを取得してもよい。例えば、露光期間が「12:00:00→12:00:30」の場合、「12:00:00」に30秒間にわたってシャッタを開くことを意味する。フレームレートとは、カメラが画像を捕捉する頻度を指すことができる。より具体的には、フレームレートとは、カメラで1秒あたりに捕捉する画像の数を指すことができる。例えば、フレームレートは、毎秒30フレームであってもよく、これは、カメラで毎秒30の画像を捕捉するように制御し得ることを意味する。
本開示のいくつかの実施形態において、第一のカメラで捕捉した画像と第二のカメラで捕捉した画像とが互いに対応することを確実にするために、第一のカメラと第二のカメラとを同時に露光するように制御する必要がある。第一のカメラが捕捉した第一の初期画像の数は、第二のカメラが捕捉した第二の初期画像の数とは、異なっていてもよい。したがって、第一のカメラおよび第二のカメラは、同一の露光期間中に異なるフレームレートで画像を捕捉することができ、その結果、第一のカメラおよび第二のカメラは、同一の露光期間中に異なる数の画像を捕捉することができる。
ブロック404では、画像の数を取得することができ、画像の数および第一のフレームレートに従って、第二のフレームレートを計算することができる。ここで、画像の数とは、捕捉する必要がある第二の初期画像の数を指すことがある。
より具体的には、第一のカメラおよび第二のカメラが画像を捕捉するフレームレートは、予め設定しても、あるいはリアルタイムで変更してもよい。フレームレートは、ここでは限定されない。例えば、第一のフレームレートを予め設定し、第二のフレームレートをリアルタイムで変更してもよい。また、第一のフレームレートと第二のフレームレートとの両方を予め設定しておくことも可能である。
いくつかの実施形態において、第二のフレームレートを第一のフレームレートで計算してもよい。最初に、第二の初期画像の数を取得してもよく、次いで、第二の初期画像の数および第一のフレームレートに従って、第二のフレームレートを計算してもよい。第二の初期画像の数をSとし、第一のフレームレートをZ1とすると、第二のフレームレートZ2は、以下の式:Z2=S*Z1を用いて計算することができる。すなわち、第二のフレームレートは、第一のフレームレートの倍数であってもよく、その倍数は、第二の初期画像の数に等しくてもよい。例えば、第一のフレームレートが30フレーム/秒であり、画像の数(すなわち、第二の初期画像の数)が4つである場合、第二のフレームレートは、30×4=120フレーム/秒である。
いくつかの実施形態において、第二の初期画像の数を、予め設定してもよいし、画像捕捉命令に従って取得してもよい。第二の初期画像の数を取得するステップは、予め設定された数の画像を取得するステップ、または、画像捕捉命令に含まれるアプリケーション識別子に対応するアプリケーションレベルを取得し、アプリケーションレベルに応じて、第二の初期画像の対応する数を取得するステップを含むことができる。
アプリケーション識別子は、上述の画像捕捉命令を開始するアプリケーションを示すように構成することができる。アプリケーションレベルは、画像捕捉命令を開始するアプリケーションの重要度レベルを示すように構成することができる。例えば、第三者アプリケーションのアプリケーションレベルは低いことがあり、その一方で、システムアプリケーションのアプリケーションレベルは高いことがある。電子機器は、アプリケーション識別子とアプリケーションレベルとの間の対応を予め構築することができ、対応するアプリケーションレベルは、アプリケーション識別子に従って見つけることができる。アプリケーションレベルが大きいほど、第二の初期画像の数は多くなる。
いくつかの実施形態において、電子機器のジッタ条件に従って、第二の初期画像の数も取得することができる。一般に、電子機器のジッタが大きい場合には、電子機器が画像を取得しているときに、誤差が発生しやすいと考えられる。したがって、複数の画像を取得して合成することにより、画像の誤差を減らすことができる。より具体的には、電子機器は、ジッタデータと画像の数との対応関係を予め構築することができる。また、画像取得処理中に、電子機器のジッタデータを取得し、そのジッタデータに従って、対応する画像の数を取得してもよい。ジッタデータは、電子機器のジッタ条件を示すように構成することができ、ジャイロスコープ、加速度センサ等のセンサによって検出されるデータであってもよいが、これらには限定されない。
ブロック406では、第二の初期画像を、露光期間中に第二のフレームレートで第二のカメラによって取得してもよい。第二の初期画像の数は、上述したように、画像の数に対応してもよい。
画像捕捉命令が検出されると、第一のカメラと第二のカメラを同時に露光し、同一の露光期間中に、第一のカメラと第二のカメラとがそれぞれ異なる数の画像を取得するのを確実にする必要がある。したがって、電子機器は、画像捕捉命令を検出した後、第一のカメラを制御して第一のフレームレートで第一の初期画像を捕捉し、第二のカメラを制御して第二のフレームレートで第二の初期画像を捕捉してもよい。
取得した第一の初期画像が第二の初期画像に対応することを確実にするために、第一の初期画像および第二の初期画像を取得した後、第二の初期画像を1つの深度画像にステッチする前に、第一の対象画像を捕捉する第一の時点と、第二の初期画像を捕捉する第二の時点とをそれぞれ取得してもよい。第一の時点と第二の時点との間の時間間隔が間隔閾値未満であるかどうかを判定することができる。第一の時点と第二の時点との間の時間間隔が間隔閾値未満である場合、複数の第二の初期画像を1つの深度画像にステッチするアクションを実行することができる。そうでなければ、第一の時点と第二の時点との間の時間間隔が間隔閾値以上であるという判定に基づいて、捕捉した第一の初期画像と第二の初期画像とは互いに対応せず、捕捉した第一の初期画像と第二の初期画像とを廃棄することができる。
ブロック408では、第一の初期画像に対して第一のフォーマット変換を実行して、第一の対象画像を生成することができる。
カメラは、光学素子と画像センサとで構成されてもよい。光学素子は、光線を集めるように構成されてもよい。画像センサは、カラーフィルタアレイ(ベイヤーフィルタ等)を含んでもよく、光学素子によって集められた光線の光強度および波長の情報を電気信号に変換し、次いで、初期画像を生成するように構成されてもよい。第一の初期画像は、第一のカメラが捕捉した初期画像であってもよい。第一のフォーマット変換は、第一の対象画像を生成するために、第一の初期画像に対して実行されてもよい。
いくつかの実施形態において、第一のカメラは可視光カメラであってもよい。第一の初期画像は、RAWフォーマットの画像であってもよい。第一の対象画像は、YUVフォーマットの画像であってもよい。第一のフォーマット変換を、RAWフォーマットの第一の初期画像に対して実行して、その結果、YUVフォーマットの第一の対象画像を取得してもよい。
ブロック410では、複数の第二の初期画像をパッケージ化することができ、パッケージ化した第二の初期画像に対して第二のフォーマット変換を実行して、1つの深度画像を生成することができる。
画像捕捉命令を検出した後、第二のカメラは、同一の露光期間中に、第二のフレームレートで第二の初期画像を取得してもよく、画像の数に対応する数を有する第二の初期画像を取得してもよい。第二のカメラが捕捉した第二の初期画像も、初期画像であってもよい。したがって、最終対象画像を、特定のフォーマット変換の後に取得してもよい。より具体的には、第二の初期画像を取得した後、第二の初期画像を送信中に失わないようにするために、第二の初期画像をパッケージ化することができ、その結果、第二の初期画像を全体としてメモリ内で送信して、フレーム損失を減らすことができる。第二のフォーマット変換を、パッケージ化した第二の初期画像に対して実行してもよく、その後、深度画像を生成してもよい。
いくつかの実施形態において、第二のカメラはレーザカメラであってもよい。レーザエミッタを電子機器上に搭載することができる。レーザエミッタは、特定の周波数でレーザ波を放射するように構成することができる。レーザ波は、被写体によって反射され、次いで、第二のカメラによって捕捉され、第二の初期画像を生成することができる。次いで、レーザ波のTOF(飛行時間)を計算することにより、被写体から第二のカメラまでの距離を計算することができる。
より具体的には、レーザエミッタは、露光期間中にレーザ波を放射するように制御することができる。第二のカメラの少なくとも2つのシャッタを、第二のフレームレートでオンおよびオフに切り替えられるように制御してもよく、シャッタがオンに切り替わるときに、レーザ波の反射によって生成される少なくとも2つの第二の初期画像を取得してもよい。第二のカメラは、異なるシャッタを介して異なる第二の初期画像を捕捉することができる。TOFカメラが捕捉した第二の初期画像も、RAWフォーマットの画像であってもよい。深度画像は、Depthフォーマットの画像であってもよい。第二のフォーマット変換は、RAWフォーマットの第二の初期画像に対して実行され、Depthフォーマットの深度画像を取得することができる。
図5は、本開示のいくつかの実施形態によって、TOFによる深度情報を計算する原理を示す模式図である。図5に示すように、レーザエミッタはレーザ波を放射してもよく、放射レーザ波は被写体によって反射され、反射レーザ波を形成してもよい。被写体の深度情報を、放射レーザ波と受信(反射)レーザ波との間の位相差に従って計算してもよい。レーザカメラが実際に画像を捕捉する場合、異なるシャッタを異なる瞬間にオンとオフに切り替えるように制御することができ、次いで、異なる受信信号を生成することができ、その結果、複数のシャッタをオンとオフに切り替えて、異なる画像を捕捉して、深度画像を計算することができる。いくつかの実施形態において、レーザカメラは、4つのシャッタを使用することによってレーザ波信号の受信を制御し、シャッタ1、シャッタ2、シャッタ3、およびシャッタ4が受信するレーザ波信号は、それぞれQ1、Q2、Q3、およびQ4であると仮定する。したがって、深度情報を計算する式は、以下:
Figure 2021520154
のようになる。
ここで、Cは光速、fはレーザ波の放射周波数である。
ブロック412では、第一の対象画像内の対象被写体を識別することができ、深度画像に従って、対象被写体に対応する対象深度情報を取得することができる。
第一の対象画像および深度画像を取得した後、第一の対象画像および深度画像をパッケージ化し、次いで、第一の対象画像および深度画像を、画像データの損失を減らすためにアプリケーションに送信することができる。例えば、第一の対象画像がRGB(Red Green Blue)画像であり、深度画像がDepth画像である場合、第一の対象画像および深度画像を、RGBD(Red Green Blue Depth)画像にパッケージ化して、さらにアプリケーションに送信してもよい。
アプリケーションが第一の対象画像および深度画像を受信した後、第一の対象画像内の対象被写体を識別することができる。深度画像は、第一の対象画像に対応する深度情報を示すように構成されてもよい。こうして、深度画像に従って、第一の対象画像内の対象被写体に対応する対象深度情報を取得することができる。より具体的には、第一の対象画像内で識別された対象被写体は、複数の画素点を含む対象領域であってもよい。対象領域に応じて、深度画像内の対応する対象深度領域を方向付けることができ、対象領域内の各画素に対応する深度情報を対象深度領域に応じて取得することができる。
本開示のいくつかの実施形態において、対象被写体を識別する方法は、ここでは限定されない。例えば、対象被写体が人物の顔である場合、第一の対象画像内の人物の顔は、人物の顔検出アルゴリズムによって識別されてもよい。対象被写体は、人工知能によって識別され得る建物、植物、動物等であってもよい。
ブロック414では、対象深度情報に従って、対象被写体に対して処理を実行することができる。
対象被写体に対応する対象深度情報を取得した後、対象深度情報に従って、対象被写体を処理してもよい。例えば、対象深度情報に従って、対象被写体に対して三次元モデル化を実行することができる。しかしながら、対象深度情報に従って、対象被写体を美化してもよい。具体的な処理方法は、ここで制限されるものではない。
いくつかの実施形態において、第一の対象画像および深度画像を取得した後、第一の対象画像内の対象被写体を識別する前に、本方法は、以下のブロックによって実行される動作をさらに含むことができる。
ブロック602では、アプリケーションレベルがレベル閾値よりも大きい場合、第一の対象画像および深度画像を暗号化することができる。
第一の対象画像および深度画像を取得した後、第一の対象画像および深度画像を、さらなる処理のためにアプリケーションに送信することができる。第一の対象画像および深度画像を送信する前に、アプリケーションのアプリケーションレベルがレベル閾値よりも大きいかどうかを判定することが可能である。アプリケーションのアプリケーションレベルがレベル閾値よりも高いという判定に基づいて、アプリケーションのセキュリティ要件が高いことを示し、第一の対象画像および深度画像を暗号化することができる。しかしながら、アプリケーションのアプリケーションレベルがレベル閾値以下であるという判定に基づいて、アプリケーションのセキュリティ要件が低いことを示し、第一の対象画像および深度画像をアプリケーションに直接送信することもできる。
ブロック604では、暗号化した第一の対象画像および深度画像を、処理のためにアプリケーションにさらに送信することができる。
暗号化した第一の対象画像および深度画像を、処理のために、アプリケーションにさらに送信することができる。暗号化した第一の対象画像および深度画像を受信した後、アプリケーションは、暗号化した第一の対象画像および深度画像を復号化し、復号化した第一の対象画像および深度画像に対して次の処理または演算を実行することができる。
第一の対象画像および深度画像を暗号化する前に、第一の対象画像および深度画像もパッケージ化することができ、次いで、パッケージ化した第一の対象画像および深度画像を暗号化することができ、その結果、送信プロセス中の第一の対象画像および深度画像のフレーム損失を減らすことができる。
いくつかの実施形態において、第二のカメラが第二の初期画像を捕捉するとき、第二の初期画像のそれぞれに対応する識別情報も生成することができる。識別情報を、第二の初期画像を捕捉するシーケンスを識別するように構成してもよい。より具体的には、第二の初期画像に対してフォーマット変換を実行することは、以下のブロックによって実行される動作をさらに含むことができる。
ブロック702では、第二の初期画像のそれぞれに対応する識別子情報を取得することができる。いくつかの実施形態において、識別情報を、第二の初期画像を捕捉するシーケンスを示すように構成してもよい。
第二のカメラは、少なくとも2つの第二の初期画像を捕捉することができる。したがって、第二のカメラが第二の初期画像を捕捉した後、第二の初期画像のそれぞれに対応する識別情報を生成することができ、第二の初期画像を捕捉するシーケンスを識別情報によってマークすることができる。より具体的には、識別情報は、第二の初期画像の捕捉時刻、第二の初期画像の位相等であってもよいが、これらに限定されない。第二の初期画像の捕捉時刻は、第二の初期画像を捕捉する時刻を示すように構成することができる。捕捉時刻に従って、第二の初期画像を捕捉する時系列を判定することができる。例えば、第二の初期画像には、捕捉時刻のシーケンスに応じて、「01」、「02」、「03」、「04」というシリアル番号を付してもよい。
ブロック704では、捕捉した第二の初期画像のうちの少なくとも1つが失われたかどうかを、識別情報に従って判定する。捕捉した第二の初期画像が全く失われていないという判定に基づいて、第二の初期画像と、対応する識別情報とをパッケージ化することができる。
上述の識別情報に従って、捕捉した第二の初期画像の少なくとも1つが失われたかどうかを判定することができる。捕捉した第二の初期画像のうちの少なくとも1つが失われた場合、現在捕捉している第二の初期画像を廃棄してもよい。しかしながら、捕捉した第二の初期画像が全く失われていない場合、第二の初期画像と、対応する識別情報とをパッケージ化することができる。例えば、取得した第二の初期画像のシリアル番号が「01」、「03」、「04」である場合、シリアル番号が「02」の第二の初期画像が途中で失われていることを意味する。
ブロック706では、識別情報に従って、パッケージ化した第二の初期画像に対して第二のフォーマット変換を実行することができる。
パッケージ化した第二の初期画像を、全体として送信してもよく、その結果、送信中に1つの画像のみを、または画像の一部を失うことは不可能である。その代わりに、いくつかの実施形態において、全ての第二の初期画像が存在することも、あるいは廃棄されることもある。第二の初期画像および識別情報をパッケージ化した後に、第二の初期画像および識別情報をフォーマット変換のためにプロセッサに送信してもよい。より具体的には、第二の初期画像を捕捉するシーケンスを、識別情報に従って判定することができ、次いで、第二の初期画像を捕捉するシーケンスに従って、第二の初期画像を1つの深度画像に合成することができる。
図8に示すように、第一のカメラは、露光期間中に第一のフレームレートで第一の初期画像802を取得することができる。第二のカメラは、露光期間中に第二のフレームレートで第二の初期画像822を取得することができる。その後、第一の対象画像804は、第一の初期画像802に従って計算することができる。深度画像824(第二の対象画像とも呼ばれる)は、第二の初期画像822に従って計算することができる。最終的に、取得した第一の対象画像804および深度画像824を処理することができる。
上述の実施形態によって提供される画像処理方法では、第一のカメラは、所与の露光期間中に第一のフレームレートで第一の初期画像を捕捉することができ、第二のカメラは、露光期間中に第二のフレームレートで少なくとも2つの第二の初期画像を捕捉することができる。処理は、第一の初期画像から生成された第一の対象画像と、第二の初期画像から生成された深度画像とに従って、さらに実行されてもよい。このようにして、第一のカメラと第二のカメラとが、同一の露光期間中に、画像を取得できることを確実にすることができる。さらに、第二のカメラは、少なくとも2つの第二の初期画像を同時に取得することができ、少なくとも2つの第二の初期画像に従って、さらなる処理のために最終深度画像を生成することができる。これにより、画像を捕捉する際に発生する誤差を減らすことができ、画像処理の精度を向上させることができる。
図2、図3、図4、図6、図7、図8のフローチャートの各ブロックは、矢印で示す順序で順番に示されているが、必ずしも矢印で示す順序で実行される必要はないことは、理解されるべきである。本開示によって明確に述べられない限り、これらのブロックは、厳密な順序に限定されず、他の順序で実行されてもよい。さらに、図2、図3、図4、図6、図7、および図8のブロックの少なくとも一部は、複数のサブブロックまたはステージを含むことができる。これらのサブブロックまたはステージは、必ずしも同じ時間または瞬間に実行される必要はなく、異なる時間または瞬間に実行されてもよい。これらのサブブロックまたはステージは、必ずしも連続して実行される必要はなく、他のブロック、またはサブブロックの少なくとも一部、または他のブロックのステージと交互に実行されてもよい。
図9は、本開示のいくつかの実施形態による、上述の画像処理方法を実施するためのソフトウェアフレームワークを示すブロック図である。図9に示すように、ソフトウェアフレームワークは、アプリケーション層90、ハードウェア抽象化層(HAL)92、カーネル層94、およびハードウェア層96を含むことができる。アプリケーション層90は、アプリケーション902を含むことができる。ハードウェア抽象化層92は、インタフェース922、画像同期モジュール924、画像アルゴリズムモジュール926、およびアプリケーションアルゴリズムモジュール928を含むことができる。カーネル層94は、カメラドライバ942、カメラ較正モジュール944、およびカメラ同期モジュール946を含むことができる。ハードウェア層96は、第一のカメラ962、第二のカメラ964、および画像信号プロセッサ(ISP)966を含むことができる。
いくつかの実施形態において、アプリケーション90は、画像捕捉命令を開始し、次いで、画像捕捉命令をインタフェース922に送信するように構成されてもよい。インタフェース922が画像捕捉命令を解析した後、カメラの構成パラメータがカメラドライバ942によって定義されてもよい。次いで、構成パラメータを、画像プロセッサ966にさらに送信してもよい。第一のカメラ962および第二のカメラ964は、画像プロセッサ966によってオンになるように制御されてもよい。第一のカメラ962および第二のカメラ964がオンにされた後、第一のカメラ962および第二のカメラ964は、カメラ同期モジュール946によって制御され、画像を同期的に捕捉することができる。第一のカメラ962が捕捉した第一の初期画像および第二のカメラ964が捕捉した第二の初期画像は、画像プロセッサ966にさらに送信され、次いで、画像プロセッサ966を介してカメラ較正モジュール944に送信され得る。カメラ較正モジュール944は、第一の対象画像を第二の初期画像と位置合わせし、次いで、位置合わせされた第一および第二の初期画像をハードウェア抽象化層92に送信することができる。ハードウェア抽象化層92内の画像同期モジュール924は、第一の対象画像を捕捉する第一の時点および第二の初期画像を捕捉する第二の時点に従って、第一の対象画像および第二の初期画像を同時に取得するかどうかを判定するように構成され得る。画像アルゴリズムモジュール926は、第一の対象画像および第二の初期画像を同時に取得する場合にのみ、第一の初期画像に従って第一の対象画像を計算し、第二の初期画像に従って深度画像を計算することができる。第一の対象画像および深度画像は、アプリケーションアルゴリズムモジュール928によって処理(パッケージ化等)されてもよく、次いで、処理(パッケージ化等)された第一の対象画像および深度画像を、インタフェース922を介してアプリケーション902に送信してもよい。アプリケーション902は、第一の対象画像および深度画像を受信した後、第一の対象画像および深度画像に応じて、三次元モデル化、美化、拡張現実(AR:Augmented Reality)等の処理を行ってもよい。
図10は、本開示のいくつかの実施形態による画像処理装置のブロック図である。画像処理装置は、前述のように、いくつかの実施形態において画像処理方法を達成または実行するように構成されてもよい。図10に示されるように、画像処理装置1000は、取得ユニット1002、ステッチングユニット1004、および処理ユニット1006を含むことができる。
取得ユニット1002は、露光期間中に第一のカメラが第一のフレームレートで捕捉する第一の初期画像を取得し、露光期間中に第二のカメラが第二のフレームレートで捕捉する少なくとも2つの第二の初期画像を取得するように構成されてもよい。いくつかの実施形態において、第一のフレームレートは、第二のフレームレートよりも小さくてもよい。第二のカメラは、TOFカメラであってもよく、第二の初期画像は、深度情報を有する画像であってもよい。
ステッチングユニット1004は、少なくとも2つの第二の初期画像を1つの深度画像にステッチするように構成されてもよい。
処理ユニット1006は、深度画像および第一の対象画像を処理するように構成されてもよい。ここで、第一の対象画像を、第一の初期画像から生成することができる。
上記の実施形態によって提供される画像処理装置では、同一の露光期間中に、第一の初期画像と複数の第二の初期画像とを取得することができる。その後、複数の第二の初期画像を1つの深度画像にステッチすることができる。第一の初期画像および1つの深度画像から生成された第一の対象画像を、さらに処理してもよい。従来技術のTOFカメラに比べて、本発明の画像処理装置ではフレーム損失が発生しにくく、画像処理システムの安定性を向上させることができる。
いくつかの実施形態において、第二の初期画像は、画像データと、画像データに対応するメタデータとを含んでもよい。ステッチングユニット1004は、少なくとも2つの第二の初期画像を1つの深度画像にステッチするように構成されてもよい。より具体的には、ステッチングユニット1004は、第二の初期画像のそれぞれの画像データおよびメタデータを抽出し、抽出した画像データおよびメタデータをパッケージ化し、パッケージ化した画像データおよびメタデータを記憶するように構成されてもよい。記憶した画像データおよびメタデータは、深度画像のデータであってもよい。
いくつかの実施形態において、ステッチングユニット1004は、抽出した画像データおよびメタデータを、以下の動作によってパッケージ化するように構成されてもよい。
少なくとも2つの第二の初期画像の画像データと対応するメタデータとをそれぞれステッチしてもよく、あるいは、露光タイミングに従って、少なくとも2つの第二の初期画像の画像データとメタデータとを順次ステッチしてもよい。
いくつかの実施形態において、捕捉した少なくとも2つの第二の初期画像のうちの少なくとも1つを、キーフレームとして構成してもよく、捕捉した少なくとも2つの第二の初期画像のうちの少なくとも1つを、非キーフレームとして構成してもよい。ステッチングユニット1004は、キーフレーム内の画素点と非キーフレーム内の対応する画素点との間の位相差データを計算することと、キーフレームの画像データおよびメタデータを抽出することと、計算した位相差データとキーフレームの画像データおよびメタデータとをパッケージ化することによって、抽出した画像データおよびメタデータをパッケージ化するように構成されてもよい。
いくつかの実施形態において、メタデータを、第二の初期画像を捕捉するシーケンスを示すように構成してもよい。ステッチングユニット1004は、捕捉した第二の初期画像のうちの少なくとも1つがメタデータに従って失われたかどうかを判定することと、捕捉した第二の初期画像が全く失われていないという判定に基づいて、第二の初期画像と対応する識別情報とをパッケージ化することと、パッケージ化した第二の初期画像を、識別情報に従って深度画像に合成することによって、少なくとも2つの第二の初期画像を深度画像にステッチすることとを行うように構成されてもよい。
いくつかの実施形態において、取得ユニット1002は、以下のアクションまたは動作によって、露光期間中に第二のカメラが第二のフレームレートで捕捉する少なくとも2つの第二の初期画像を取得するように構成されてもよい。
レーザエミッタは、露光期間中に第二のフレームレートで少なくとも2つのレーザ波を放射するように制御することができる。
レーザ波は、被写体によって反射され、反射レーザ波を生成してもよく、反射レーザ波が形成した少なくとも2つの対応する第二の初期画像を、露光期間中に第二のカメラが捕捉してもよい。
いくつかの実施形態において、装置1000は、計算ユニット(図示せず)をさらに含むことができる。計算ユニットは、少なくとも2つの第二の初期画像に対応する深度情報を、時間差法または位相差法を用いて計算するように構成されてもよい。
画像処理装置の上記実施形態において各モジュールに分割されているのは、単に例示の目的のためである。他の実施形態では、画像処理装置は、上記のモジュールとは異なる他のモジュールに分割されて、画像処理装置の機能の全部または一部を完了してもよい。
本開示のいくつかの実施形態において、コンピュータ可読記憶媒体をさらに提供することができる。1つまたは複数のコンピュータ可読記憶媒体は、コンピュータ実行可能命令を含んでもよい。コンピュータ実行可能命令を1つまたは複数のプロセッサによって実行するとき、プロセッサは、上述の実施形態による画像処理方法を実行するようにさせることができる。
コンピュータプログラム製品は、命令を含むことができる。このコンピュータプログラム製品をコンピュータで実行すると、コンピュータに、上記実施形態で提供された画像処理方法を実行させることができる。
本開示のいくつかの実施形態において、電子機器をさらに提供することができる。上記電子機器は、画像処理回路を含んでもよい。画像処理回路は、ハードウェアおよび/またはソフトウェアコンポーネントによって実装されてもよく、ISP(Image Signal Processing)パイプラインを規定する様々な処理ユニットを含んでもよい。図11は、本開示のいくつかの実施形態による画像処理回路のブロック図である。図11に示すように、説明のために、本開示の実施形態に関連する画像処理技法の様々な態様のみを示すことができる。
図11に示すように、画像処理回路は、第一のISPプロセッサ1130、第二のISPプロセッサ1140、および制御ロジック1150を含むことができる。第一のカメラ1111は、1つまたは複数の第一のレンズ1112および第一の画像センサ1114を含んでもよい。第一の画像センサ1114は、カラーフィルタアレイ(ベイヤーフィルタ等)を含んでもよい。第一の画像センサ1114は、第一の画像センサ1114の各捕捉画素が捕捉した光強度および波長情報を取得し、第一のISPプロセッサ1130が処理し得る一組の画像データを提供するように構成されてもよい。第二のカメラ1120は、1つまたは複数の第二のレンズ1122および第二の画像センサ1124を含んでもよい。第二の画像センサ1124は、カラーフィルタアレイ(ベイヤーフィルタ等)を含んでもよい。第二の画像センサ1124は、第二の画像センサ1124の各捕捉画素が捕捉した光強度および波長情報を取得し、第二のISPプロセッサ1140が処理し得る一組の画像データを提供するように構成されてもよい。
第一のカメラ1111が捕捉した第一の初期画像を、処理のために第一のISPプロセッサ1130に送信することができる。第一のISPプロセッサ1130が第一の初期画像を処理した後、第一の初期画像の統計データ(画像の輝度、画像のコントラスト、画像の色等)を制御ロジック1150に送信することができる。制御ロジック1150は、第一のカメラ1111が、制御パラメータに従って、オートフォーカス、オート露光等の動作を実行し得るように、統計データに従って、第一のカメラ1111の制御パラメータを決定するように構成されてもよい。第一の初期画像を、第一のISPプロセッサ1130によって処理した後、画像メモリ1160に記憶してもよい。第一のISPプロセッサ1130は、また、処理のために画像メモリ1160に記憶された画像を読み出すように構成してもよい。さらに、第一の初期画像を、ISPプロセッサ113によって処理した後、表示のためにディスプレイ1170に直接送信してもよい。ディスプレイ1170は、また、表示のために画像メモリ1160内の画像を読み取るように構成されてもよい。
第一のISPプロセッサ1130は、複数のフォーマットに従って画素毎に画像データを処理するように構成されてもよい。例えば、各画像ピクセルは、8、10、12、または14ビットのビット深度を有することができる。第一のISPプロセッサ1130は、画像データ上で1つまたは複数の画像処理動作を行い、画像データ上の統計情報を収集するように構成することができる。いくつかの実施形態において、画像処理動作は、同じまたは異なるビット深度精度で実行されてもよい。
画像メモリ1160は、メモリ装置、記憶装置、または電子機器内の別個の専用メモリの一部であってもよい。画像メモリ1160は、DMA(Direct Memory Access)の特徴を有することができる。
第一のISPプロセッサ1130は、第一の画像センサ1114から画像データを受信すると、1つまたは複数の画像処理動作、例えば、時間領域フィルタリングを実行することができる。処理された画像データを、表示する前に追加処理のために画像メモリ1160に送信してもよい。第一のISPプロセッサ1130は、処理されたデータを画像メモリ1160から受信し、処理されたデータに対してRGBおよびYCbCr色空間で画像データ処理を行うことができる。第一のISPプロセッサ1130が処理した画像データは、ディスプレイ1170に出力されてもよく、その結果、画像データを、ユーザが見ることができ、および/または、グラフィックエンジンまたはGPU(グラフィックス処理ユニット)がさらに処理することもできる。さらに、第一のISPプロセッサ1130の出力も画像メモリ1160に送信することができ、ディスプレイ1170は画像メモリ1160から画像データを読み出すことができる。いくつかの実施形態において、画像メモリ1160は、1つまたは複数のフレームバッファを実装するように構成され得る。
第一のISPプロセッサ1130が決定した統計データを、制御ロジック1150に送信してもよい。例えば、統計データは、自動露出、自動ホワイトバランス、自動焦点、フリッカ検出、黒レベル補正、第一のレンズ1212のシェーディング補正等の、第一の画像センサ1114の統計情報を含んでもよい。制御ロジック1150は、プロセッサおよび/または1つまたは複数のルーチン(ファームウェア等)を実行するように構成されたマイクロコントローラを含むことができる。1つまたは複数のルーチンは、受信された統計データに従って、第一のカメラ1111およびISPプロセッサ1130の制御パラメータを決定するように構成され得る。例えば、第一のカメラ1111の制御パラメータは、ゲイン、露光制御の積分時間、アンチジッタパラメータ、フラッシュ制御パラメータ、第一のレンズ1112の制御パラメータ(フォーカスまたはズームされた焦点距離等)、またはこれらのパラメータの組み合わせ等を含んでもよい。ISP制御パラメータは、(例えば、RGB処理中の)自動ホワイトバランスおよび色調整のための利得レベルおよび色補正マトリクスと、第一のレンズ1112のシェーディング補正パラメータとを含むことができる。
同様に、第二のカメラ1120が捕捉した第二の初期画像を、処理のために第二のISPプロセッサ1140に送信することができる。第二のISPプロセッサ1140が第二の初期画像を処理した後、第二の初期画像の統計データ(画像の輝度、画像のコントラスト、画像の色等)を制御ロジック1150に送信することができる。制御ロジック1150は、第二のカメラ1120が、制御パラメータに従って、オートフォーカス、オート露光等の動作を実行し得るように、統計データに従って、第二のカメラ1120の制御パラメータを決定するように構成されてもよい。第二の初期画像を、第二のISPプロセッサ1140によって処理した後、画像メモリ1160に記憶してもよい。第二のISPプロセッサ1140は、また、処理のために画像メモリ1160に記憶された画像を読み出すように構成してもよい。さらに、第二の初期画像を、ISPプロセッサ114によって処理した後、表示のためにディスプレイ1170に直接送信してもよい。ディスプレイ1170は、また、表示のために画像メモリ1160内の画像を読み取るように構成されてもよい。第二のカメラ1120および第二のISPプロセッサ1140は、第一のカメラ1111および第一のISPプロセッサ1130で説明したプロセスを実施することもできる。
本開示で使用されるメモリ、ストレージ、データベース、または他の媒体へのいかなる言及も、メモリおよび/または一時メモリを含むことができる。メモリには、読取り専用メモリ、プログラマブルROM、電気的プログラマブルROM、電気的消去可能プログラマブルROM、またはフラッシュメモリが含まれてもよい。一時メモリは、ランダムアクセスメモリを含んでもよく、外部高速バッファメモリとして使用されてもよい。例示的ではあるが、RAMは、無制限に、例えば、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、エンハンスドSDRAM(ESDRAM)、シンクリンクDRAM(SLDRAM)、ラムバスダイレクトRAM(RDRAM)、ダイレクトRDRAM(DRDRAM)およびラムバスダイナミックRAM(RDRAM)等、様々な形態で得ることができる。
上述の実施形態は、本開示のいくつかの実施形態を説明するだけであり、具体的に詳細に説明されているが、本開示の範囲を限定するものとして理解されるべきではない。当業者は、本開示の概念から逸脱することなく、複数の変換および改良をさらに行うことができることを指摘しておく。これらの全ては、本開示の保護の範囲内にある。したがって、特許開示の保護範囲は、添付の特許請求の範囲に従うべきである。

Claims (15)

  1. 電子機器のための画像処理方法であって、
    露光期間中に第一のカメラ(102)によって第一のフレームレートで第一の初期画像(802)を取得し(202)、前記露光期間中に第二のカメラ(104)によって第二のフレームレートで少なくとも2つの第二の初期画像(822)を取得するステップであって、前記第一のフレームレートは、前記第二のフレームレートよりも小さく、前記第二の初期画像(822)のそれぞれは、深度情報を有する画像である、ステップと、
    前記少なくとも2つの第二の初期画像(822)をさらなる処理のために1つの深度画像(824)にステッチするステップ(204)と、
    を含むことを特徴とする、画像処理方法。
  2. 前記第二の初期画像(822)のそれぞれは、画像データと、前記画像データに対応するメタデータとを含み、
    前記少なくとも2つの第二の初期画像(822)を1つの深度画像(824)に前記ステッチするステップ(204)は、
    前記第二の初期画像(822)のそれぞれの前記画像データおよび前記メタデータを抽出するステップ(302)と、
    前記第二の初期画像(822)から抽出した前記画像データおよび前記メタデータをパッケージ化し(304)、パッケージ化した画像データおよびメタデータを形成するステップと、
    前記パッケージ化した画像データおよびメタデータを深度フォーマットで記憶し(306)、前記深度画像(824)を生成するステップと、
    を含む、請求項1に記載の画像処理方法。
  3. 前記抽出した画像データおよびメタデータをパッケージ化するステップ(304)は、
    前記少なくとも2つの初期画像の前記画像データと、前記対応するメタデータをステッチするステップ、または、
    露光タイミングに基づいて、前記少なくとも2つの第二の初期画像(822)の前記画像データを順次ステッチするステップ、
    を含む、請求項2に記載の画像処理方法。
  4. 前記少なくとも2つの第二の初期画像(822)のうちの少なくとも1つは、キーフレームであり、前記少なくとも2つの第二の初期画像(822)のうちの少なくとも1つは、非キーフレームであり、
    前記抽出した画像データおよびメタデータを前記パッケージ化するステップ(304)は、
    前記キーフレーム内の画素点と前記非キーフレーム内の対応する画素点との間の位相差を計算するステップと、
    前記キーフレームの前記画像データおよび前記メタデータを抽出し、前記計算した位相差と前記キーフレームの前記画像データおよびメタデータをパッケージ化するステップと、
    を含む、請求項2に記載の画像処理方法。
  5. 前記メタデータは、前記第二の初期画像(822)を取得するシーケンスを示すように構成され、
    前記少なくとも2つの第二の初期画像(822)を1つの深度画像(824)に前記ステッチするステップ(204)は、
    前記メタデータに従って、前記少なくとも2つの初期画像(822)のうちの少なくとも1つが失われたかどうかを判定するステップと、
    前記第二の初期画像(822)が全く失われなかったという判定に基づいて、前記第二の初期画像(822)および対応する識別情報をパッケージ化するステップと、
    前記識別情報に従って、前記パッケージ化した第二の初期画像(822)を前記深度画像(824)に合成するステップと、
    を含む、請求項2に記載の画像処理方法。
  6. 前記露光期間中に前記第二のカメラ(104)によって前記第二のフレームレートで前記少なくとも2つの第二の初期画像(822)を前記取得するステップは、
    前記露光期間中に前記第二のフレームレートで少なくとも2つのレーザ波を放射するようにレーザエミッタを制御するステップであって、前記少なくとも2つのレーザ波のそれぞれは、反射レーザ波が形成されるように、被写体によって反射される、ステップと、
    前記露光期間中に前記反射レーザ波が生成した前記少なくとも2つの第二の初期画像(822)を、前記第二のカメラ(104)によって取得するステップと、
    をさらに含む、請求項1〜5のいずれか一項に記載の画像処理方法。
  7. 前記露光期間中に前記第二のカメラ(104)によって前記第二のフレームレートで前記少なくとも2つの第二の初期画像(822)を取得するステップの後、
    時間差法または位相差法を用いて、前記少なくとも2つの第二の初期画像(822)に対応する前記深度情報を計算するステップを
    さらに含む、請求項1〜6のいずれか一項に記載の画像処理方法。
  8. 前記露光期間中に前記第一のカメラ(102)によって前記第一のフレームレートで前記第一の初期画像(802)を取得し(202)、前記露光期間中に前記第二のカメラ(104)によって前記第二のフレームレートで少なくとも2つの第二の初期画像(822)を取得するステップは、
    画像捕捉命令を検出すると、前記露光期間中に前記第一のフレームレートで前記第一のカメラ(102)によって前記第一の初期画像(802)を取得するステップ(402)と、
    前記第二の初期画像(822)の数を取得し(404)、前記第二の初期画像(822)の数および前記第一のフレームレートに従って、前記第二のフレームレートを計算するステップと、
    前記露光期間中に、前記計算した第二のフレームレートで、前記第二のカメラ(104)によって前記第二の初期画像(822)を取得するステップ(406)と、
    を含む、請求項1〜7のいずれか一項に記載の画像処理方法。
  9. 前記第二の初期画像(822)の数を前記取得するステップ(404)は、
    予め設定された数の第二の初期画像(822)を取得するステップと、
    前記画像捕捉命令に含まれるアプリケーション識別子に対応するアプリケーションレベルを取得し、前記アプリケーションレベルに従って、前記対応する数の前記第二の初期画像(822)を取得するステップと、
    前記電子機器のジッタデータを取得し、前記ジッタデータに応じて、前記対応する数の前記第二の初期画像(822)を取得するステップと、
    のうちの1つのステップを含む、請求項8に記載の画像処理方法。
  10. 前記露光期間中に前記第一のカメラ(102)によって前記第一のフレームレートで前記第一の初期画像(802)を取得し(202)、前記露光期間中に前記第二のカメラ(104)によって前記第二のフレームレートで少なくとも2つの第二の初期画像(822)を前記取得するステップの後、
    前記第一の初期画像(802)を捕捉する第一の時点と、前記第二の初期画像(822)のそれぞれを捕捉する第二の時点とを取得するステップと、
    前記第一の時点と前記第二の時点との間の時間間隔が間隔閾値未満であるかどうかを判定するステップと、
    前記第一の時点と前記第二の時点との間の前記時間間隔が前記間隔閾値以上であるという判定に基づいて、前記第一の初期画像および前記少なくとも2つの初期画像を廃棄するステップと、
    をさらに含む、請求項1〜9のいずれか一項に記載の画像処理方法。
  11. 前記第一の初期画像(802)に対して第一のフォーマット変換を実行して(408)、第一の対象画像(804)を生成するステップであって、前記深度画像(824)と前記第一の対象画像(804)とは、タイミングが同期して互いに対応する、ステップをさらに含み、
    前記少なくとも2つの第二の初期画像(822)を1つの深度画像に前記ステッチするステップ(204)は、
    前記少なくとも2つの第二の初期画像(822)をパッケージ化し(410)、前記パッケージ化した第二の初期画像(822)に対して第二のフォーマット変換を実行して、前記深度画像(824)を生成するステップ
    を含む、請求項1〜10のいずれか一項に記載の画像処理方法。
  12. 前記第一の対象画像(804)内の対象被写体を識別し(412)、前記深度画像(824)に従って、前記対象被写体に対応する対象深度情報を取得するステップと、
    前記対象深度情報に従って、前記対象被写体に対する処理を実行するステップ(414)と、
    をさらに含む、請求項11に記載の画像処理方法。
  13. 前記第一の初期画像(802)に対して前記第一のフォーマット変換を実行して、前記第一の対象画像を生成するステップの後、前記第一の対象画像内の前記対象被写体を識別するステップ(412)の前に、
    前記第一の対象画像および前記深度画像(824)をパッケージ化するステップと、
    アプリケーションのレベルが閾値より大きい場合、前記パッケージ化した第一の対象画像および深度画像(824)を暗号化するステップ(602)と、
    前記暗号化した第一の対象画像(804)および深度画像(824)を前記アプリケーションに送信するステップ(604)と、
    をさらに含む、請求項12に記載の画像処理方法。
  14. プログラムを記憶するコンピュータ可読記憶媒体であって、前記プログラムをプロセッサによって実行すると、前記プロセッサに請求項1〜13のいずれか一項に記載の画像処理方法を実行させることを特徴とする、コンピュータ可読記憶媒体。
  15. 第一のカメラ(1111)と、第二のカメラ(1120)と、メモリ(1160)と、プロセッサ(1130、1140)とを備え、前記メモリ(1160)はコンピュータプログラムを記憶し、前記コンピュータプログラムを前記プロセッサ(1130、1140)によって実行すると、前記プロセッサ(1130、1140)に請求項1〜13のいずれか一項に記載の画像処理方法を実行させることを特徴とする、電子機器。
JP2020559552A 2018-08-22 2019-08-19 画像処理方法、コンピュータ可読記憶媒体、および電子機器 Active JP7139452B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810962707.9A CN108965732B (zh) 2018-08-22 2018-08-22 图像处理方法、装置、计算机可读存储介质和电子设备
CN201810962707.9 2018-08-22
PCT/CN2019/101363 WO2020038330A1 (en) 2018-08-22 2019-08-19 Image processing method, computer-readable storage medium, and electronic apparatus

Publications (2)

Publication Number Publication Date
JP2021520154A true JP2021520154A (ja) 2021-08-12
JP7139452B2 JP7139452B2 (ja) 2022-09-20

Family

ID=64473853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559552A Active JP7139452B2 (ja) 2018-08-22 2019-08-19 画像処理方法、コンピュータ可読記憶媒体、および電子機器

Country Status (7)

Country Link
US (1) US11145071B2 (ja)
EP (1) EP3614171B1 (ja)
JP (1) JP7139452B2 (ja)
KR (1) KR102377728B1 (ja)
CN (1) CN108965732B (ja)
AU (1) AU2019326597B2 (ja)
WO (1) WO2020038330A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108965732B (zh) 2018-08-22 2020-04-14 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
EP3873083A4 (en) * 2018-11-02 2021-12-01 Guangdong Oppo Mobile Telecommunications Corp., Ltd. DEPTH IMAGE PROCESSING, DEPTH IMAGE PROCESSING APPARATUS AND ELECTRONIC APPARATUS
CN111372005B (zh) * 2018-12-25 2023-03-24 浙江舜宇智能光学技术有限公司 Tof摄像模组自动曝光补偿方法及其系统
CN110062161B (zh) * 2019-04-10 2021-06-25 Oppo广东移动通信有限公司 图像处理器、图像处理方法、拍摄装置和电子设备
CN110428381B (zh) * 2019-07-31 2022-05-06 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、移动终端及存储介质
CN110794422B (zh) * 2019-10-08 2022-03-29 歌尔光学科技有限公司 一种含有tof成像模组的机器人数据采集系统及方法
KR20210043933A (ko) * 2019-10-14 2021-04-22 엘지이노텍 주식회사 이미지 처리 장치 및 이미지 처리 방법
CN111079520B (zh) * 2019-11-01 2024-05-21 京东科技控股股份有限公司 图像识别方法、设备及存储介质
WO2021114036A1 (zh) * 2019-12-09 2021-06-17 南昌欧菲生物识别技术有限公司 Tof相机及电子设备
CN111741303B (zh) * 2020-06-09 2022-03-25 Oppo广东移动通信有限公司 深度视频处理方法、装置、存储介质与电子设备
CN111988526B (zh) * 2020-08-27 2021-07-27 Oppo(重庆)智能科技有限公司 移动终端及图像数据处理方法
US11523043B2 (en) 2020-10-12 2022-12-06 Apple Inc. Camera autofocus using time-of-flight assistance
CN112468781A (zh) * 2020-11-25 2021-03-09 中国人民解放军国防科技大学 一种阵列式微光场景视频成像装置及方法
GB2602622A (en) * 2020-12-03 2022-07-13 Cambridge Mechatronics Ltd Camera
CN116935467A (zh) * 2021-08-12 2023-10-24 荣耀终端有限公司 数据处理方法及装置
CN113572973B (zh) * 2021-09-28 2021-12-17 武汉市聚芯微电子有限责任公司 一种曝光控制方法、装置、设备以及计算机存储介质
CN116261041A (zh) * 2021-12-08 2023-06-13 华为技术有限公司 拍摄方法、装置、设备及存储介质
US20230298302A1 (en) * 2022-03-15 2023-09-21 Apple Inc. Single read of keypoint descriptors of image from system memory for efficient header matching
CN115988331B (zh) * 2022-12-09 2024-10-08 浙江华锐捷技术有限公司 一种曝光控制方法、装置、设备及介质
CN116543330A (zh) * 2023-04-13 2023-08-04 北京京东乾石科技有限公司 农作物信息存储方法、装置、电子设备和计算机可读介质
CN118549412A (zh) * 2024-07-25 2024-08-27 国科大杭州高等研究院 一种libs光谱仪同步光谱数据采集方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012094144A (ja) * 2010-10-25 2012-05-17 Sony Computer Entertainment Inc ビデオの3−d情報および他の情報用の一元管理データベース
JP2015212927A (ja) * 2014-04-17 2015-11-26 株式会社リコー 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム
JP2016208380A (ja) * 2015-04-27 2016-12-08 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US9704250B1 (en) * 2014-10-30 2017-07-11 Amazon Technologies, Inc. Image optimization techniques using depth planes
JP2017525024A (ja) * 2014-06-17 2017-08-31 アマゾン・テクノロジーズ、インコーポレイテッド 入力データを管理するためのアーキテクチャ
JP2017527777A (ja) * 2014-06-20 2017-09-21 クアルコム,インコーポレイテッド 時間共有を使用する自動複数深度カメラ同期化
JP2017539169A (ja) * 2014-12-12 2017-12-28 クアルコム,インコーポレイテッド カラービデオと深度ビデオとの同期方法、装置、および媒体
JP2018506797A (ja) * 2015-02-12 2018-03-08 ネクストブイアール・インコーポレイテッド 環境測定を行うための、及び/又は、このような測定を使用するための方法及び装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5448617B2 (ja) * 2008-08-19 2014-03-19 パナソニック株式会社 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
EP2590396B1 (en) * 2010-07-02 2018-08-08 Sony Interactive Entertainment Inc. Information processing system and information processing method
KR101862199B1 (ko) * 2012-02-29 2018-05-29 삼성전자주식회사 원거리 획득이 가능한 tof카메라와 스테레오 카메라의 합성 시스템 및 방법
WO2014178836A1 (en) * 2013-04-30 2014-11-06 Hewlett-Packard Development Company, L.P. Depth sensors
KR102283423B1 (ko) * 2014-12-18 2021-07-30 엘지이노텍 주식회사 영상 획득 장치 및 이를 포함하는 휴대용 단말기와 그 장치의 영상 획득 방법
CN104935893B (zh) * 2015-06-17 2019-02-22 浙江大华技术股份有限公司 监视方法和装置
CN106161943A (zh) * 2016-07-29 2016-11-23 维沃移动通信有限公司 一种录像方法和移动终端
CN106454287B (zh) * 2016-10-27 2018-10-23 深圳奥比中光科技有限公司 组合摄像系统、移动终端及图像处理方法
US20180220052A1 (en) * 2017-01-31 2018-08-02 Karl Storz Imaging, Inc. Temporal Modulation of Fluorescence Imaging Color Channel for Improved Surgical Discrimination
CN107424187B (zh) * 2017-04-17 2023-10-24 奥比中光科技集团股份有限公司 深度计算处理器、数据处理方法以及3d图像设备
CN107154014B (zh) * 2017-04-27 2020-06-26 上海大学 一种实时彩色及深度全景图像拼接方法
CN206975217U (zh) * 2017-06-27 2018-02-06 艾普柯微电子(上海)有限公司 感光元件及tof距离传感器
CN107124604B (zh) * 2017-06-29 2019-06-04 诚迈科技(南京)股份有限公司 一种利用双摄像头实现三维图像的方法及装置
CN107527033A (zh) * 2017-08-25 2017-12-29 歌尔科技有限公司 摄像头模组和社交系统
CN107506752A (zh) 2017-09-18 2017-12-22 艾普柯微电子(上海)有限公司 人脸识别装置及方法
CN108347561B (zh) * 2017-10-27 2020-01-03 广东康云多维视觉智能科技有限公司 激光引导扫描系统及扫描方法
CN108965732B (zh) * 2018-08-22 2020-04-14 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN109040591B (zh) * 2018-08-22 2020-08-04 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012094144A (ja) * 2010-10-25 2012-05-17 Sony Computer Entertainment Inc ビデオの3−d情報および他の情報用の一元管理データベース
JP2015212927A (ja) * 2014-04-17 2015-11-26 株式会社リコー 入力操作検出装置、入力操作検出装置を備えた画像表示装置及びプロジェクタシステム
JP2017525024A (ja) * 2014-06-17 2017-08-31 アマゾン・テクノロジーズ、インコーポレイテッド 入力データを管理するためのアーキテクチャ
JP2017527777A (ja) * 2014-06-20 2017-09-21 クアルコム,インコーポレイテッド 時間共有を使用する自動複数深度カメラ同期化
US9704250B1 (en) * 2014-10-30 2017-07-11 Amazon Technologies, Inc. Image optimization techniques using depth planes
JP2017539169A (ja) * 2014-12-12 2017-12-28 クアルコム,インコーポレイテッド カラービデオと深度ビデオとの同期方法、装置、および媒体
JP2018506797A (ja) * 2015-02-12 2018-03-08 ネクストブイアール・インコーポレイテッド 環境測定を行うための、及び/又は、このような測定を使用するための方法及び装置
JP2016208380A (ja) * 2015-04-27 2016-12-08 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
KR102377728B1 (ko) 2022-03-25
EP3614171A1 (en) 2020-02-26
US20200065986A1 (en) 2020-02-27
JP7139452B2 (ja) 2022-09-20
CN108965732A (zh) 2018-12-07
EP3614171B1 (en) 2024-04-03
US11145071B2 (en) 2021-10-12
KR20200138298A (ko) 2020-12-09
WO2020038330A1 (en) 2020-02-27
CN108965732B (zh) 2020-04-14
AU2019326597A1 (en) 2020-12-03
AU2019326597B2 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
JP7139452B2 (ja) 画像処理方法、コンピュータ可読記憶媒体、および電子機器
EP3614659B1 (en) Image processing method, electronic apparatus, and computer-readable storage medium
CN109040591B (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN109118581B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN108419017B (zh) 控制拍摄的方法、装置、电子设备及计算机可读存储介质
EP3107065A1 (en) Methods and systems for providing virtual lighting
CN109151303B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN109190533B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
TWI709110B (zh) 攝像頭校準方法和裝置、電子設備
CN105282421B (zh) 一种去雾图像获取方法、装置及终端
JP2010113720A (ja) 距離情報を光学像と組み合わせる方法及び装置
WO2019226211A1 (en) Image signal processing for reducing lens flare
CN109146906B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN108924426A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP2017138927A (ja) 画像処理装置、撮像装置およびそれらの制御方法、それらのプログラム
CN109120846B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
CN108629329B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP6718256B2 (ja) 画像処理装置、撮像装置およびそれらの制御方法ならびにプログラム
CN109191396B (zh) 人像处理方法和装置、电子设备、计算机可读存储介质
CN109447925B (zh) 图像处理方法和装置、存储介质、电子设备
EP3873083A1 (en) Depth image processing method, depth image processing apparatus and electronic apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220907

R150 Certificate of patent or registration of utility model

Ref document number: 7139452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150