JP2023137620A - 画像処理方法、装置、電子機器及び読み取り可能な記憶媒体 - Google Patents

画像処理方法、装置、電子機器及び読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2023137620A
JP2023137620A JP2022043890A JP2022043890A JP2023137620A JP 2023137620 A JP2023137620 A JP 2023137620A JP 2022043890 A JP2022043890 A JP 2022043890A JP 2022043890 A JP2022043890 A JP 2022043890A JP 2023137620 A JP2023137620 A JP 2023137620A
Authority
JP
Japan
Prior art keywords
image
type
camera
signal
collected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022043890A
Other languages
English (en)
Other versions
JP7324329B1 (ja
Inventor
康幸 伊藤
Yasuyuki Ito
泰文 萩原
Yasufumi Hagiwara
克博 近藤
Katsuhiro Kondo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to JP2022043890A priority Critical patent/JP7324329B1/ja
Priority to PCT/CN2023/081836 priority patent/WO2023174367A1/zh
Application granted granted Critical
Publication of JP7324329B1 publication Critical patent/JP7324329B1/ja
Publication of JP2023137620A publication Critical patent/JP2023137620A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】本開示は、画像処理方法、装置、電子機器及び読み取り可能な記憶媒体を提供する。【解決手段】本開示において、この方法は、第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信することを含み、前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なり、前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得する。本開示は、アンダースクリーン撮像装置の感度低下、解像度劣化、フレア発生などの問題を減少するか、もしくはなくすことができるため、アンダースクリーン撮像装置の画質を向上させる。【選択図】図2

Description

本開示は、画像処理技術分野に関する。具体的に、画像処理方法、装置、電子機器及び読み取り可能な記憶媒体に関する。
従来では、多く電子機器(スマートフォンやタブレットパソコンなど)にフロントカメラが設置される。フロントカメラは、主に自撮り用にディスプレイと同じ側に設置される。フロントカメラはディスプレイと同じ側に設置されるため、フロントカメラの設置場所はディスプレイを避ける必要があり、そのためスマートフォンの裏側全面をディスプレイとする所謂フルスクリーンデザインを実現することが難しい。通常は、ディスプレイの外側のベゼル部分にフロントカメラを設置するベゼル型や、ディスプレイの一部に穴を開けてフロントカメラを設置するノッチ型やドットドロップ型、パンチホール型などがある。
また、スマートフォンの側壁にフロントカメラを格納しておき撮影時に飛び出させるポップアップ(POPUP)型を採用して、スマートフォンのディスプレイをフルスクリーンデザイン化することに成功した例はあるが、コスト、厚さ、信頼性などの課題や、撮影時のカメラの出し入れに時間がかかるなどの課題がある。更に裏面にも第2のディスプレイを設置してリアカメラを自撮りにも使用するというアイディアもあるが、コスト面やデザイン面で課題がある。
そこで近年、ディスプレイの下にフロントカメラを設置して、ディスプレイを通して自撮り撮影を行う、アンダースクリーン撮像装置の開発が行われている。フロントカメラ直上のディスプレイの透過率を高くして撮影に必要な光量を確保すると同時に、ディスプレイ使用時のディスプレイの表示コントラストも十分に取れるようにすることができれば、コストや厚さ、信頼性などの問題もなく、フルスクリーンデザインのスマートフォンが実現可能となる。
本開示の少なくとも一つの実施例により、アンダースクリーン撮像装置の画質を向上させるための画像処理方法、装置、電子機器及び読み取り可能な記憶媒体を提供する。
上記の技術問題を解決するために、本開示は、以下のように実現される。
第一態様では、本開示実施例による画像処理方法であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信することと、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することを含み、
ここで、前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なる。
第二態様では、本開示実施例による画像処理装置であって、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信するための受信モジュールと、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得するための統合モジュールを含み、
前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なる。
第三態様では、本開示実施例による電子機器であって、プロセッサーとメモリを含み,前記メモリが、前記プロセッサー上に実行可能なプログラムまたは指令を記憶し、前記プログラムまたは指令が前記プロセッサーに実行されると前記第一態様に記載の画像処理方法のステップを実現する。
第四態様では、本開示実施例による読み取り可能な記憶媒体であって、前記読み取り可能な記憶媒体にプログラムまたは指令を記憶し、前記プログラムまたは指令がプロセッサーに実行されると前記方法のステップを実現する。
本開示実施例従来技術に比べて、本開示実施例による画像処理方法、装置、電子機器及び読み取り可能な記憶媒体は、アンダースクリーン撮像装置の感度低下、解像度劣化、フレア発生などの問題を減少するか、もしくはなくすことができるため、アンダースクリーン撮像装置の画質を向上させる。
本開示実施例における画像処理方法のフローチャートである。 本開示実施例におけるアンダースクリーン撮像装置の一つ構成概要図である。 本開示実施例の第1の応用シーンでの画像統合のフローチャートである。 本開示実施例の第1の応用シーンでの画像統合の別のフローチャートである。 本開示実施例の第1の応用シーンでの画像統合の別のフローチャートである。 本開示実施例におけるアンダースクリーン撮像装置の別の構成概要図である。 本開示実施例の第2の応用シーンでの画像統合のフローチャートである。 本開示実施例の第2の応用シーンでの画像統合の別のフローチャートである。 本開示実施例の第2の応用シーンでの画像統合の別のフローチャートである。 本開示実施例における画像処理装置の構成概要図である。 本開示実施例における画像処理装置の別の構成概要図である。 本開示実施例における統合モジュールの構成概要図である。 本開示実施例における統合モジュールの構成概要図である。 本開示実施例における統合モジュールの構成概要図である。 本開示実施例における統合モジュールの構成概要図である。 本開示実施例における統合モジュールの構成概要図である。 本開示実施例における統合モジュールの構成概要図である。 本開示実施例における電子機器の構成概要図である。
以下、本開示の実施例の図面とともに、本開示の実施例の技術手段を明確且つ完全的に記載する。明らかに、記載する実施例は、本開示の実施例の一部であり、全てではない。本開示の実施例に基づき、当業者が創造性のある作業をしなくても為しえる全ての他の実施例は、いずれも本開示の保護範囲に属するものである。
本開示の明細書及び特許請求の範囲における用語「第1」、「第2」などは、類似した対象を区別するためのものであり、必ずしも特定の順序又は優先順位を説明するためのものではない。ここで説明した本開示の実施例が、例えばここでの図示又は説明以外の順序でも実施できるように、このように使用されたデータは、適宜入れ替えてもよいと理解すべきである。尚且つ、用語「第1」、「第2」などにより区別される対象は、通常同種なものであり、対象な数を限定しない。例えば、第一対象は、一つでもよく、複数でもよい。なお、明細書及び特許請求の範囲における「及び/又は」は、接続対象の少なくとも1つを表す。文字「/」は、一般に、前後関連な対象が「或いは」の関係となることを示す。
従来技術のアンダースクリーン撮像装置において、ディスプレイを通して撮像するために、カメラを設置する箇所のディスプレイの透過率を上げる必要があるが、ディスプレイの透過率を上げる場合に、表示のコントラストの低下があるため、表示品質が低下し、他の部分との均一性に影響を与える問題があるため、ディスプレイの透過率を上げるには限界がある。
そのため、アンダースクリーン撮像装置のデメリットとしては、以下のような画質劣化の問題を挙げる。(1)ディスプレイの透過光量の低下による感度の低下である。(2)ディスプレイの画素の回折効果による解像度の低下である。(3)ディスプレイを構成するレイヤーからの光の散乱によるフレアである。(4)ディスプレイの透過率の波長依存性と構成層の位相変化によるカラーシフト、アーティファクト、偽色などが発生する。(5)ディスプレイ構成層の不均一性による画像の歪みである。
これらの課題に対して、画像処理やカメラの改善による様々な解決策が検討されているが、まだ商品化できるだけの解決には至っていないのが現状である。特に感度低下、解像度劣化、フレア発生については大きな問題が残っている。カメラをディスプレイの下に配置するため、カメラを大きくして感度を上げるとスマートフォンが厚くなってしまうという問題もある。
一方で、最近のスマートフォンでは、前面のディスプレイ側に個人認証用のカメラを設置する場合も多くなってきている。この場合、赤外線のDOT PROJECTORと赤外線カメラを用いたSTRUCTURED LIGHT方式や、赤外線レーザーと赤外線カメラを用いたTIME OF FLIGHT方式などが用いられている。これらの方式では、レーザー光を照射して対象物からの反射光を高精度に受光する必要があることからディスプレイの下に設置することは困難であり、ディスプレイの外側にこれらの個人認証システムを設置する場所が必要になるため、フルスクリーンデザインを採用できない。従って、上記のアンダースクリーン撮像装置を用いる場合には指紋認証方式の個人認証システムを用いる場合が多いが、指紋認証方式はまだ認証精度が十分ではなく、高い信頼性が必要な用途には使用できないという問題がある。
本開示実施例によれば、上記の課題を解決するための一つとしては、表示スクリーンの下に設置されるアンダースクリーン撮像装置に適用される画像処理方法を提供する。具体的に、本開示実施例では、スクリーンの下に異なる動作波長の複数のカメラが設置され、表示スクリーンのカメラの設置部分の上に光の透過率を向上させる光透過領域(高透過領域と称する)を設置できる。
図1に示すように、当該画像処理方法において、
第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信するステップ11を含む。ここで、前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なる。
ここで、表示スクリーンの光透過領域の下に設置される第1種類のカメラと第2種類のカメラにより目標対象の画像が採集されて、第1種類の画像と第2種類の画像を取得する。前記光透過領域の透過率が所定の第1閾値より大きい。光透過領域と表示スクリーンの他の部分の均一性に損なわれる問題を軽減させるために、前記光透過領域の透過率が、所定の第1閾値より大きい第2閾値より小さい。
本開示実施例において、第1種類のカメラと第2種類のカメラがそれぞれことなる波長範囲の光により結像する。前記第1種類のカメラが一個か複数であてもよく、前記第2種類のカメラも一個か複数であってもよい。具体的に、前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、前記第2種類のカメラは、赤外線の光により結像するNIRカメラである。
ステップ12では、前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得する。
ここで、ステップ12において、異なる波長による結像する画像を統合処理により、本開示実施例が異なる波長のそれぞれの結像特性で、アンダースクリーン撮像装置の感度低下、解像度劣化、フレア発生などの問題を減少するか、もしくはなくすことができるため、アンダースクリーン撮像装置の画質を向上させる。
アンダースクリーン撮像装置の位置が異なるため、同一の目標対象を採集された画像は、一般に、視野角、光軸、視差などに違いがある。そのため、ステップ12の前に、本開示実施例は、前記第1種類の画像と第2種類の画像を歪や視差を補正してもよい。そして、ステップ12で、補正後の第1種類の画像と第2種類の画像を画像統合処理する。
前記第1種類のカメラは、RGBカメラであり、前記第2種類のカメラは、NIRカメラであり、且つ、前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含む第1の応用シーンで、第1のカメラは、第1画像(RGB画像)を取得し、第2のカメラは、第2画像(YUV画像)を取得する。本開示実施例は、上記ステップ12においても複数の実現方式がある。
第1の方式では、前記(1)の感度低下の問題と(2)の解像度低下の問題を解決できる。具体的に、前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第2のY信号を抽出する。前記第1のY信号と第2のY信号を統合して、第3のY信号を取得する。前記第3のY信号を用いて、前記第1のUV信号と合成して目標画像を取得する。
第2の方式では、前記(1)の感度低下の問題と。(2)の解像度低下の問題と、(3)のフレアの発生する問題を解決できる。具体的に、前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得すし、前記第2画像から第2のY信号を抽出する。前記第1のY信号と第2のY信号の第1の差分を算出する。前記第1の差分に基づいて、フレア位置を検出し、前記第1画像と第2画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得する。更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得する。前記第4のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得する。
第3の方式では、前記(1)の感度低下の問題と、(2)の解像度の低下と、(3)のフレアの発生と、(4)の顔認証の問題を解決できる。具体的に、前記第2の実現方式を基に、前記第1画像と第2画像との視差情報に基づいて、第1の深度画像を生成し、前記目標画像と前記目標画像に対応する前記第1の深度画像を出力することで、前記第1の深度画像の深度情報に基づいて、顔認識を行う。
前記第1種類のカメラは、RGBカメラであり、前記第2種類のカメラは、NIRカメラであり、且つ、前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラと第3のカメラを含む第2の応用シーンで、第1のカメラは、第1画像(RGB画像)を採集し、第2のカメラは、第2画像(白黒画像)を採集し、第3のカメラは、第3画像(白黒画像)を採集する。本開示実施例は、上記ステップ12においても複数の実現方式がある。
第1の方式では、前記(1)の感度低下の問題と(2)の解像度低下の問題を解決できる。具体的に、前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第2のY信号を抽出し、前記第3画像から第5のY信号を抽出する。前記第1のY信号と、第2のY信号と、第5のY信号を統合して、第6のY信号を取得する。前記第6のY信号を用いて、前記第1のUV信号と合成して目標画像を取得する。
第2の方式では、前記(1)の感度低下の問題と、(2)の解像度の低下と、(3)のフレアの発生する問題を解決できる。具体的に、前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第2のY信号を抽出し、前記第3画像から第5のY信号を抽出する。前記第1のY信号と第2のY信号の第1の差分を算出し、前記第1のY信号と、第2のY信号との第2の差分を算出する。前記第1の差分と第2の差分に基づいて、フレア位置を検出し、前記第1画像と、第2画像と第3画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号と、第5のY信号を取得し、更新後の第1のY信号と、第2のY信号と、第5のY信号を統合して、第7のY信号を取得し、前記第7のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得する。
第3の方式では、前記(1)の感度低下、(2)の解像度の低下、(3)のフレアの発生と(4)の顔認証の問題を解決できる。具体的に、前記第2の実現方式を基に、前記第1画像、第2画像と第3画像との視差情報に基づいて、第2の深度画像を生成し、前記目標画像と前記目標画像に対応する前記第2の深度画像を出力する。
以下では、前記第1種類のカメラは、RGBカメラとし、前記第2種類のカメラは、NIRカメラとして例を挙げる。幾つかの図面をとともに、以上の第1の応用シーンと第2の応用シーンのフローをさらに詳細に説明する。
図2~図5を参照する。上記の第1の応用シーンに対応して、図2に示すように、表示スクリーンの下に二つのカメラを配置するアンダースクリーン撮像装置である。表示スクリーンに、一つの高透過領域を含む。ここで、前記高透過領域の光透過率が表示スクリーンの他の部分より高い。高透過領域の下に、第1種類のカメラと第2種類のカメラが設置される。これらのカメラは、表示表面の高透過領域を透過した光を受光して撮像する。ここで、第1種類のカメラは、カメラ1を含み、第2種類のカメラは、カメラ2を含む。具体的に、前記カメラ1は、通常に用いられる可視領域の光を受光できるRGBカメラであり、カメラ2は、赤外線NIR光のみを検出するNIRカメラである。カメラ1とカメラ2は、それぞれ、目標対象の画像を採集して、カメラ1により採集される第1画像とカメラ2により採集される第2画像を取得する。
図2に示されるアンダースクリーン撮像装置により、図3~図5に示される多種な画像統合方法を更に提供する。
図3は、(1)の感度低下の問題と、(2)の解像度の低下の問題を解決するための、二つのアンダースクリーンカメラからの出力画像を用いる画像統合の処理フローを示す。まず、カメラ1(RGBカメラ)からの第1画像とカメラ2(NIRカメラ)からの第2画像が、視野角、光軸、視差などに違いがある。そのため、それらを検出してから、視差補正して、補正後の第1種類の画像と第2種類の画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号に分離される。RGBカメラからの第1のY信号とNIRカメラからの第2のY信号を用いて画像統合処理して、第3のY信号を取得する。暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後の第3のY信号とRGBカメラからの第1のUV信号を用いて、カラーの目標画像を合成して出力する。
図4は、(3)のフレアの発生する問題を解決するための、二つのアンダースクリーンカメラからの出力画像を用いるフレア除去と画像統合の処理フローを示す。まず、カメラ1(RGBカメラ)からの第1画像とカメラ2(NIRカメラ)からの第2画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と第2画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離される。RGBカメラからの第1のY信号と第1のUV信号、及びNIRカメラからの第2のY信号を比較して差分を形成してRGBカメラにおけるフレアの発生状態とNIRカメラにおけるフレアの発生状態の差分を検出することで、フレアとその以外の画像を分離でき、この情報を用いて、フレアを効率的にに除去できる。特に、NIRカメラでは、夜景に大きな問題となるLEDライトのフレアは、検出されないため、効率的に上記フレアを除去できる。フレア除去後、RGBカメラからの第1のY信号とNIRカメラからの第2のY信号を画像統合処理して、第4のY信号を取得することで、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後の第4のY信号とRGBカメラからの第1のUV信号を用いて、カラーの目標画像を合成して出力する。
図5は、(4)の顔認識機能ための、二つのアンダースクリーンカメラからの出力画像を用いるフレア除去及び画像統合の処理と顔認証のフローを示す。まず、カメラ1(RGBカメラ)からの第1画像とカメラ2(NIRカメラ)からの第2画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と第2画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離される。RGBカメラからの第1のY信号と第1のUV信号、及びNIRカメラからの第2のY信号を比較して差分を形成してRGBカメラにおけるフレアの発生状態とNIRカメラにおけるフレアの発生状態の差分を検出することで、フレアとその以外の画像を分離でき、この情報を用いて、フレアを効率的に除去できる。特に、NIRカメラでは、夜景に大きな問題となるLEDライトのフレアは、検出されないため、効率的に上記フレアを除去できる。フレア除去後、RGBカメラからの第1のY信号とNIRカメラからの第2のY信号を画像統合処理して、第4のY信号を取得することで、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後の第4のY信号とRGBカメラからの第1のUV信号を用いて、カラーの目標画像を合成して出力する。また、カメラ1とカメラ2の視差情報に基づいて、深度画像(DEPTH MAP)を生成し、その三次元情報と出力される前記目標画像を用いて、顔認識を行う。
図6~図9を参照して、上記の第2の応用シーンに対応して、図6に示すように、表示スクリーンの下に三つのカメラを配置するアンダースクリーン撮像装置である。カメラ1は、通常に用いられる可視領域の光を受光できるRGBカメラであり、カメラ2とカメラ3は、いずれも赤外線NIR光のみを検出するNIRカメラである。カメラ1と、カメラ2と、カメラ3は、ディスプレイの高透過領域に配置され、ディスプレイの高透過領域を透過した光を受光して撮像する。上記の実施例において、RGBカメラとNIRカメラの解像度、光学特性に違いがあるため、視差の検出精度に問題がある。この実施例において、上記の実施例に比べて、特に、暗い場所に対して検出精度が高い二つのNIRカメラが設置されるため、NIRカメラ間に正しい視差情報を取得できるため、深度画像の精度を向上できて、顔識別精度を向上できる。
図7は、(1)の感度低下の問題と、(2)の解像度の低下の問題を解決するための、三つのアンダースクリーンカメラからの出力画像を用いる画像統合の処理フローを示す。まず、カメラ1(RGBカメラ)からの第1画像と、カメラ2(NIRカメラ)からの第2画像と、カメラ3(NIRカメラ)からの第3画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と、第2画像と第3画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離されることで、RGBカメラからのY信号とNIRカメラからの二とのY信号をもちいて画像統合処理して、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後のY信号とRGBカメラからのUV信号を用いて、カラーの目標画像を合成して出力する。
図8は、(3)のフレアの発生する問題を解決するために、三つのアンダースクリーンカメラからの出力画像を用いるフレア除去と画像統合の処理フローを示す。まず、カメラ1(RGBカメラ)からの第1画像と、カメラ2(NIRカメラ)からの第2画像と、カメラ3(NIRカメラ)からの第3画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と、第2画像と第3画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離する。RGBカメラからのY信号とUV信号、及びNIRカメラからの二つのY信号を比較して差分を形成してRGBカメラにおけるフレアの発生状態と二つのNIRカメラにおけるフレアの発生状態の差分を検出することで、フレアとその以外の画像を分離でき、この情報を用いて、フレアを効率的に除去できる。特に、NIRカメラでは、夜景に大きな問題となるLEDライトのフレアは、検出されないため、効率的に上記フレアを除去できる。フレア除去後、RGBカメラからのY信号とNIRカメラからの二つのY信号を画像統合処理して、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後のY信号とRGBカメラからのUV信号を用いて、カラーの目標画像を合成して出力する。
図9は、(4)の顔認識機能ための、三つのアンダースクリーンカメラからの出力画像を用いるフレア除去及び画像統合の処理と顔認証のフローを示す。まず、カメラ1(RGBカメラ)からの第1画像と、カメラ2(NIRカメラ)からの第2画像と、カメラ3(NIRカメラ)からの第3画像が、視野角、光軸、視差などに違いがあるため、それらを検出してから、視差補正して、補正後の第1画像と、第2画像と第3画像を取得する。その後、カメラ1(RGBカメラ)により採集された前記第1画像をRGBフォーマットからYUVフォーマットに変換して第1のY信号と第1のUV信号に分離される。RGBカメラからのY信号とUV信号、及びNIRカメラからの二つのY信号を比較して差分を形成してRGBカメラにおけるフレアの発生状態と二つのNIRカメラにおけるフレアの発生状態の差分を検出することで、フレアとその以外の画像を分離でき、この情報を用いて、フレアを効率的に除去できる。特に、NIRカメラでは、夜景に大きな問題となるLEDライトのフレアは、検出されないため、効率的に上記フレアを除去できる。フレア除去後、RGBカメラからのY信号とNIRカメラからの二つのY信号を画像統合処理して、暗い場所の感度の向上とノイズの低減とともに、輝度の解像度の向上もできる。その後、画像統合後のY信号とRGBカメラからのUV信号を用いて、カラーの目標画像を合成して出力する。また、カメラ1、カメラ2とカメラ3の視差情報に基づいて、深度画像を生成し、その三次元情報と出力される前記目標画像を用いて、顔認識を行う。
以上、本開示実施例における各種方法を紹介した。以下、さらに、上記方法を実施するための装置を提供する。
図10を参考する。本開示実施例は、さらに画像処理装置90を提供する。画像処理装置90には、
第1種類のカメラにより採集された第1種類の画像を受信する、第2種類のカメラにより採集された第2種類の画像を受信するための受信モジュール91であって、前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なる受信モジュール91と、
前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得するための統合モジュール92が含まれる。
オプションとして、前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、第2種類のカメラは、赤外線の光により結像するNIRカメラである。
図11を参考する。本開示実施例は、さらに別の画像処理装置90を提供する。この装置は、図9を基に、さらに、前記統合モジュールが前記第1種類の画像と第2種類の画像を画像統合処理する前に、前記第1種類の画像と第2種類の画像を歪みや視差を補正する補正モジュール93を含む。このように、前記統合モジュール92が統合処理する時、前記第1種類の画像と第2種類の画像を画像統合することになる。
第1種類のカメラは、第1のカメラを含み、第2種類のカメラは、第2のカメラを含む応用シーンに対して、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像を含む。この時、図12を参照する。ひとつの実現方式として、図10または、図11における統合モジュール92は、具体的に、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出するための第1の抽出サブモジュール9201と、
前記第1のY信号と第2のY信号を統合して、第3のY信号を取得するための第1の統合サブモジュール9202と、
前記第3のY信号を用いて、前記第1のUV信号と合成して目標画像を取得するための第1の合成サブモジュール9203とを含む。
図13を参照する。別の実現方式として、図10または、図11における統合モジュール92は、具体的に、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出するための第1の抽出モジュール9201と、
前記第1のY信号と第2のY信号の第1の差分を算出するための第1の算出サブモジュール9204と、
前記第1の差分に基づいて、フレア位置を検出し、前記第1画像と第2画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得するための第1のフレア除去サブモジュール9205と、
更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得するための第2の統合サブモジュール9206と、
前記第4のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得するための第2の合成サブモジュール9207を含む。
図14を参照する。また別の実現方式として、図13を基に、前記統合モジュール92は、さらに、
前記第1画像と第2画像との視差情報に基づいて、第1の深度画像を生成するための第1の生成サブモジュール9208と、
前記目標画像と前記目標画像に対応する前記第1の深度画像を出力するための前記第2の合成サブモジュール9207を含む。
第1種類のカメラは、第1のカメラを含み、第2種類のカメラは、第2のカメラと第3のカメラを含む応用シーンに対して、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像と第3のカメラにより採集された第3画像を含む。この時、図15を参照して、ひとつの実現方式として、図10または、図11における統合モジュール92は、具体的に、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得する、前記第2画像から第1のY信号を抽出し、前記第3画像から第5のY信号を抽出するための第2の抽出サブモジュール9211と、
前記第1のY信号と、第2のY信号と、第5のY信号を統合して、第6のY信号を取得するための第2の統合サブモジュール9212と、
前記第6のY信号を用いて、前記第1のUV信号と合成して目標画像を取得するための第3の合成サブモジュール9213を含む。
図16を参照する。別の実現方式として、図10または図11にける前記統合モジュール92は、具体的に、
前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出し、前記第3画像から第5のY信号を抽出するための第2の抽出サブモジュール9211と、
前記第1のY信号と第2のY信号の第1の差分を算出し、前記第1のY信号と、第2のY信号との第2の差分を算出するための第1の算出サブモジュール9214と、
前記第1の差分と第2の差分に基づいて、フレア位置を検出し、前記第1画像、第2画像と第3画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号と、第5のY信号を取得するための第2のフレア除去サブモジュール9215と、
更新後の第1のY信号と、第2のY信号と、第5のY信号を統合して、第7のY信号を取得するための第4の統合サブモジュール9216と、
前記第7のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得するための第4の合成サブモジュール9217を含む。
図17を参照する。また別の実現方式として、図16を基に、前記統合モジュール92は、さらに、
前記第1画像、第2画像と第3画像との視差情報に基づいて、第2の深度画像を生成するための第2の生成サブモジュール9218と、
前記目標画像と前記目標画像に対応する前記第2の深度画像を出力するための前記第4の合成サブモジュール9217を含む。
なお、この実施例における機器は、上記の画像処理方法に適用される機器に対応する機器である。上記各実施例における実現方式は、いずれも、この機器の実施例に適用でき、同じ技術効果も達成できる。本開示実施例に提供される上記機器は、上記方法実施例に実現されたすべての方法ステップを実現でき、且つ同じ技術効果を達成できる。ここで、当該実施例において方法実施例と同様な部分及び有益な効果の説明を省略する。
図18を参考する。本開示実施例は、プロセッサー1801と、メモリ1802を含む電子機器1800をさらに、提供する。メモリ1802に記憶され、且つプロセッサー1801上実行できるコンピュータープログラムは、プロセッサー1801に実行されると、上記画像処理方法実施例における各プロセスを実現し、且つ、同じ技術効果も達成できる。重複を避けるため、ここで省略する。
本開示実施例は、コンピューター読み取り可能な記憶媒体も提供する。前記コンピューター読み取り可能な記憶媒体にコンピュータープログラムを記憶し、前記プログラムがプロセッサーに実行されると上記画像処理方法の各プロセスを実現し、且つ同じ効果を達成できる。重複を避けるため、ここで省略する。ここで、前記コンピューター読み取り可能な記憶媒体は、例えば、ROM(READ-ONLY MEMORY)、RAM(RANDOM ACCESS MEMORY)、磁気ディスクまたは光ディスクなどである。
なお、本明細書において、用語「含む」、「備える」又はそれらの任意の他の変形は、非排他的包含を含むことを意図し、それにより一連の要素を含むプロセス、方法、物品又はユーザ装置は、それらの要素だけでなく、明確に列挙されていない他の要素、又はこのようなプロセス、方法、物品又はユーザ装置に固有の要素も含む。更なる限定がない場合、語句「1つの……含む」で限定された要素について、前記要素を含むプロセス、方法、物品又はユーザ装置にさらに別の同じ要素が存在することは排除されない。
上記の実施形態の記載によれば、当業者は、上記実施例の方法がソフトバンクに必要なハードウェアプラットフォームを加える方式で実現できることが自明である。当然のことで、ハードウェアで実現できる。しかし、多くな場合に、前者のほうが好ましい方式である。このような理解を基に、本開示の技術手段は、本質に、もしくは、従来技術に対して貢献する部分は、ソフトバンクプロダクトの方式で具体化される。このコンピュータプロダクトは、一つの記憶媒体(例えば、ROM/RAM、磁気ディスクまたは光ディスクなど)に記憶され、一つの端末(携帯電話、コンピュータ、サーバー、空気調節機またはネットワーク機器など)に本開示の各実施例に記載の方法を実行させるよう、いくつかの指令を含む。
図面とともに、本開示の実施例を説明したが、当業者は、一旦基本的な創造性概念を知ると、これらの実施例に対して別の変更及び補正を行うことができる。したがって、添付の特許請求の範囲は、好ましい実施例と本開示の実施例の範囲内に含まれる全ての変更及び補正を含むものと解釈されることを意図する。

Claims (19)

  1. 画像処理方法であって、
    第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信することを含み、
    前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なり、
    前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することを特徴とする画像処理方法。
  2. 前記第1種類の画像と第2種類の画像を画像統合処理する前に、前記第1種類の画像と第2種類の画像の歪みと視差を補正することを含むこと特徴とする請求項1に記載の画像処理方法。
  3. 前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、第2種類のカメラは、赤外線の光により結像するNIRカメラであること特徴とする請求項1または2に記載の画像処理方法。
  4. 前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像を含むこと特徴とする請求項3に記載の画像処理方法。
  5. 前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
    前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得し、前記第2画像から第1のY信号を抽出することと、
    前記第1のY信号と第2のY信号を統合して、第3のY信号を取得することと、
    前記第3のY信号を用いて、前記第1のUV信号と合成して目標画像を取得することを含むことを特徴とする請求項4に記載の画像処理方法。
  6. 前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
    前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第1のY信号を抽出することと、
    前記第1のY信号と第2のY信号の第1の差分を算出することと、
    前記第1の差分に基づいて、フレア位置を検出し、前記第1画像と第2画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号を取得することと、
    更新後の第1のY信号と第2のY信号を統合して、第4のY信号を取得することと、
    前記第4のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得することを含むことを特徴とする請求項4に記載の画像処理方法。
  7. 前記前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
    前記第1画像と第2画像との視差情報に基づいて、第1の深度画像を生成することと、
    前記目標画像と前記目標画像に対応する前記第1の深度画像を出力することをさらに含むことを特徴とする請求項6に記載の画像処理方法。
  8. 前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラと第3のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像と第3のカメラにより採集された第3画像を含むことを特徴とする請求項3に記載の画像処理方法。
  9. 前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
    前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第1のY信号を抽出することと、前記第3画像から第5のY信号を抽出することと、
    前記第1のY信号と、第2のY信号と、第5のY信号を統合して、第6のY信号を取得することと、
    前記第6のY信号を用いて、前記第1のUV信号と合成して目標画像を取得することを含むことを特徴とする請求項8に記載の画像処理方法。
  10. 前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
    前記第1画像をRGBフォーマットからYUVフォーマットに変換して前記第1画像の第1のY信号と第1のUV信号を取得することと、前記第2画像から第1のY信号を抽出することと、前記第3画像から第5のY信号を抽出することと、
    前記第1のY信号と第2のY信号の第1の差分を算出することと、前記第1のY信号と、第2のY信号との第2の差分を算出することと、
    前記第1の差分と第2の差分に基づいて、フレア位置を検出し、前記第1画像、第2画像と第3画像におけるフレアを除去して、更新後の第1のY信号と、第1のUV信号と、第2のY信号と、第5のY信号を取得することと、
    更新後の第1のY信号と、第2のY信号と、第5のY信号を統合して、第7のY信号を取得することと、
    前記第7のY信号を用いて、更新後の前記第1のUV信号と合成して目標画像を取得することをことを含むことを特徴とする請求項8に記載の画像処理方法。
  11. 前記前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得することは、
    前記第1画像、第2画像と第3画像との視差情報に基づいて、第2の深度画像を生成することと、
    前記目標画像と前記目標画像に対応する前記第2の深度画像を出力することを更に含むことを特徴とする請求項10に記載の画像処理方法。
  12. 画像処理装置であって、
    第1種類のカメラにより採集された第1種類の画像を受信し、第2種類のカメラにより採集された第2種類の画像を受信するための受信モジュールと、
    前記第1種類の画像と第2種類の画像を画像統合処理して目標画像を取得するための統合モジュールを含み、
    前記第1種類のカメラと第2種類のカメラが表示スクリーンの透過領域の下に設置され、且つ第1種類のカメラと第2種類のカメラの動作波長範囲が異なることを特徴とする画像処理装置。

  13. 前記統合モジュールにより前記第1種類の画像と第2種類の画像を画像統合処理する前に,前記第1種類の画像と第2種類の画像の歪みと視差を補正する補正モジュールを更に含むことを特徴とする請求項12に記載の画像処理装置。
  14. 前記第1種類のカメラは、可視領域の光により結像するRGBカメラであり、第2種類のカメラは、赤外線の光により結像するNIRカメラであることを特徴とする請求項12または13に記載の画像処理装置。
  15. 前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像を含むことを特徴とする請求項14に記載の画像処理装置。
  16. 前記第1種類のカメラは、第1のカメラを含み、前記第2種類のカメラは、第2のカメラと第3のカメラを含み、前記第1種類の画像は、第1のカメラにより採集された第1画像を含み、前記第2種類の画像は、第2のカメラにより採集された第2画像と第3のカメラにより採集された第3画像を含むことを特徴とする請求項14に記載の画像処理装置。
  17. 電子機器であって、プロセッサーとメモリを含み,
    前記メモリが、前記プロセッサー上に実行可能なプログラムまたは指令を記憶し、前記プログラムまたは指令が前記プロセッサーに実行されると請求項1―11のいずれか一項に記載の画像処理方法のステップを実現することを特徴とする電子機器。
  18. 透過領域を有する表示スクリーンと、
    前記透過領域下に設置される少なくとも第1種類のカメラと第2種類のカメラを更に含むことを特徴とする請求項17に記載の電子機器。
  19. 読み取り可能な記憶媒体であって、
    前記読み取り可能な記憶媒体にプログラムまたは指令を記憶し、前記プログラムまたは指令がプロセッサーに実行されると請求項1―11のいずれか一項に記載の画像処理方法のステップを実現する読み取り可能な記憶媒体。
JP2022043890A 2022-03-18 2022-03-18 画像処理方法、装置、電子機器及び読み取り可能な記憶媒体 Active JP7324329B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022043890A JP7324329B1 (ja) 2022-03-18 2022-03-18 画像処理方法、装置、電子機器及び読み取り可能な記憶媒体
PCT/CN2023/081836 WO2023174367A1 (zh) 2022-03-18 2023-03-16 图像处理方法、装置、电子设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022043890A JP7324329B1 (ja) 2022-03-18 2022-03-18 画像処理方法、装置、電子機器及び読み取り可能な記憶媒体

Publications (2)

Publication Number Publication Date
JP7324329B1 JP7324329B1 (ja) 2023-08-09
JP2023137620A true JP2023137620A (ja) 2023-09-29

Family

ID=87519515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022043890A Active JP7324329B1 (ja) 2022-03-18 2022-03-18 画像処理方法、装置、電子機器及び読み取り可能な記憶媒体

Country Status (2)

Country Link
JP (1) JP7324329B1 (ja)
WO (1) WO2023174367A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015103906A (ja) * 2013-11-22 2015-06-04 株式会社リコー 画像処理装置、撮像システム、画像処理方法およびプログラム
JP2020150331A (ja) * 2019-03-11 2020-09-17 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム
JP2020530130A (ja) * 2017-08-07 2020-10-15 アップル インコーポレイテッドApple Inc. 自動位置調整ブラケットアセンブリに保持された視覚システムアセンブリを有する電子機器
JP2021089428A (ja) * 2019-12-03 2021-06-10 エルジー ディスプレイ カンパニー リミテッド ディスプレー装置
JP2021165754A (ja) * 2016-12-13 2021-10-14 ソニーセミコンダクタソリューションズ株式会社 イメージングシステム、イメージング処理方法、およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10523855B2 (en) * 2015-09-24 2019-12-31 Intel Corporation Infrared and visible light dual sensor imaging system
CN107292860B (zh) * 2017-07-26 2020-04-28 武汉鸿瑞达信息技术有限公司 一种图像处理的方法及装置
CN112767289B (zh) * 2019-10-21 2024-05-07 浙江宇视科技有限公司 图像融合方法、装置、介质及电子设备
CN111586273B (zh) * 2020-05-22 2022-01-18 Oppo广东移动通信有限公司 电子设备及图像获取方法
CN111741281B (zh) * 2020-06-30 2022-10-21 Oppo广东移动通信有限公司 图像处理方法、终端及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015103906A (ja) * 2013-11-22 2015-06-04 株式会社リコー 画像処理装置、撮像システム、画像処理方法およびプログラム
JP2021165754A (ja) * 2016-12-13 2021-10-14 ソニーセミコンダクタソリューションズ株式会社 イメージングシステム、イメージング処理方法、およびプログラム
JP2020530130A (ja) * 2017-08-07 2020-10-15 アップル インコーポレイテッドApple Inc. 自動位置調整ブラケットアセンブリに保持された視覚システムアセンブリを有する電子機器
JP2020150331A (ja) * 2019-03-11 2020-09-17 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム
JP2021089428A (ja) * 2019-12-03 2021-06-10 エルジー ディスプレイ カンパニー リミテッド ディスプレー装置

Also Published As

Publication number Publication date
WO2023174367A1 (zh) 2023-09-21
JP7324329B1 (ja) 2023-08-09

Similar Documents

Publication Publication Date Title
CN109076169B (zh) 捕获彩色图像数据的方法、装置及计算机可读媒体
US9591237B2 (en) Automated generation of panning shots
US9143749B2 (en) Light sensitive, low height, and high dynamic range camera
CN101742123B (zh) 图像处理设备和方法
US20200068134A1 (en) Electronic device, method, and program
US20140340515A1 (en) Image processing method and system
CN111028190A (zh) 图像处理方法、装置、存储介质及电子设备
CN110519485B (zh) 图像处理方法、装置、存储介质及电子设备
JP4466015B2 (ja) 画像処理装置および画像処理プログラム
CN106296625A (zh) 图像处理装置及图像处理方法、摄像装置及摄像方法
US9860456B1 (en) Bayer-clear image fusion for dual camera
JP6185249B2 (ja) イメージ処理装置及びイメージ処理方法
US20150271416A1 (en) Information Processing Method and Electronic Device
JP7324329B1 (ja) 画像処理方法、装置、電子機器及び読み取り可能な記憶媒体
JP4466017B2 (ja) 画像処理装置および画像処理プログラム
US20190057492A1 (en) Method and image processing device for detecting a portion of an image
CN109447925B (zh) 图像处理方法和装置、存储介质、电子设备
JP4466016B2 (ja) 画像処理装置および画像処理プログラム
JP7426438B2 (ja) 画像処理方法、装置、電子機器および読み取り可能記憶媒体
JP2017126954A (ja) 画像処理装置、画像処理方法、及び、撮像装置
CN115471571A (zh) 标定方法、图像处理方法、装置、存储介质与电子设备
CN115619841A (zh) 图像处理方法、装置、计算机可读存储介质及电子设备
CN116168064A (zh) 图像处理方法、装置、电子设备及存储介质
CN112055191A (zh) 白平衡调整的方法、图像采集设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230728

R150 Certificate of patent or registration of utility model

Ref document number: 7324329

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150