JP7412545B2 - 画像処理方法、画像処理装置、及びそれを応用する電子機器 - Google Patents

画像処理方法、画像処理装置、及びそれを応用する電子機器 Download PDF

Info

Publication number
JP7412545B2
JP7412545B2 JP2022520039A JP2022520039A JP7412545B2 JP 7412545 B2 JP7412545 B2 JP 7412545B2 JP 2022520039 A JP2022520039 A JP 2022520039A JP 2022520039 A JP2022520039 A JP 2022520039A JP 7412545 B2 JP7412545 B2 JP 7412545B2
Authority
JP
Japan
Prior art keywords
image
result
processing
registration
diagram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022520039A
Other languages
English (en)
Other versions
JP2022550191A (ja
Inventor
辺巧玲
陸艶青
王進
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ArcSoft Corp Ltd
Original Assignee
ArcSoft Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ArcSoft Corp Ltd filed Critical ArcSoft Corp Ltd
Publication of JP2022550191A publication Critical patent/JP2022550191A/ja
Application granted granted Critical
Publication of JP7412545B2 publication Critical patent/JP7412545B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/37Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

関連出願の相互参照
本願発明は、2019年9月30日に出願された、出願番号が201910943314.8であり、発明名称が「画像処理方法、画像処理装置、及びそれを応用する電子機器」である中国特許出願についての優先権を主張し、その全ての内容は参照により本願に組み込まれるものとする。
本発明は、コンピュータビジョン技術に関し、具体的には、画像処理方法、画像処理装置及び、それを応用する電子機器に関する。
近年、電子技術が絶えずに発展するとともに、様々な電子製品、特に撮像装置付き電子製品、例えばテレビ(TV)、携帯電話、デスクトップコンピュータ、ノートパソコン、タブレットパソコン、パーソナルデジタルアシスタント(PDA)などは、各生活分野に広く応用されている。それとともに、ユーザのこれらの撮像装置に対する要求も増加する一方で、製品メーカーは、ユーザの要求を満たすために、次々と新しい機能を開発している。
2000年に写真を撮る機能を備えた世界初の携帯電話が登場して以来、写真を撮ることは、携帯電話の不可欠な機能となり、現在の顧客が特に注目している機能の1つでもある。現在で発売中のデュアルカメラスマートフォン又はタブレットパソコンは、一般的には、機器の正面と背面にそれぞれ取り付けられるか、又は全部機器の背面に取り付けられる2つのカメラを有する。一般的なデュアルカメラとは、機器に1つの広角レンズと1つの望遠レンズがあり、ユーザの選択に応じて、近景と遠景の鮮明な画面をそれぞれ実現することができる。
携帯型電子機器(例えばスマートファン又はタブレットパソコン)のサイズと重さによる制限のため、より良い撮像効果を得るために、マルチカメラに基づくスマート電子機器は、発展する傾向となる。しかし、異なるカメラを使用して取得した画像をどのように処理して出力画像の品質をさらに向上させるかは、注目する焦点の1つである。
本発明の実施例は、複数の撮像ユニットに基づいて取得した画像品質が悪いという課題を少なくとも解決するための画像処理方法、画像処理装置及び、それを応用する電子機器を提供した。
本発明の実施例の1つの態様によれば、少なくとも2つの撮像ユニットを有する電子機器に用いられる画像処理方法であって、第1の撮像ユニットによって第1の画像を取得するステップと、第2の撮像ユニットによって第2の画像を取得するステップと、前記第1の画像における第1の領域と前記第2の画像をレジストレーション(Image registration)し、レジストレーション結果を取得するステップであって、前記第1の領域と前記第2の画像は、同じ視野領域に対応するものであるステップと、前記レジストレーション結果に基づいて、前記第1の領域と前記第2の画像を融合処理し、融合図を取得するステップ、とを含む画像処理方法を提供する。
選択的には、該画像処理方法は、画質向上技術を用いて前記第1の画像における第2の領域を処理するステップをさらに含み、前記第2の領域は、前記第1の画像における第1の領域以外の領域である。
選択的には、前記画質向上技術は、シングルフレーム又はマルチフレームに基づく深層学習技術を含む。
選択的には、前記第1の撮像ユニットは、前記第2の撮像ユニットとは異なる視野を有する。
選択的には、前記第1の画像における第1の領域を前記第2の画像とレジストレーションし、レジストレーション結果を取得する前記ステップは、前記第1の領域と前記第2の画像を所定倍率で縮小処理し、第1の縮小画像と第2の縮小画像を取得するステップと、予め設定された方法で前記第1の縮小画像と前記第2の縮小画像を処理し、第1の結果図と第2の結果図を取得するステップと、前記第1の結果図と前記第2の結果図を前記所定倍率で拡大処理し、第1の拡大画像と第2の拡大画像を取得するステップと、第1のレジストレーション方法を用いて前記第1の拡大画像と前記第2の拡大画像を処理し、前記レジストレーション結果を取得するステップとを含む。
選択的には、前記予め設定された方法は、Dense Inverse Search(DIS)オプティカルフロー法である。
選択的には、予め設定された方法で前記第1の縮小画像と前記第2の縮小画像を処理し、第1の結果図と第2の結果図を取得する前記ステップは、前記第1の縮小画像と前記第2の縮小画像をエピポーラ線補正及びマッチング計算し、第1の処理結果を取得するステップと、前記第1の処理結果に2回目の処理を行い、前記第1の結果図と前記第2の結果図を取得するステップとを含む。
選択的には、前記第1の処理結果に対して2回目の処理を行い、前記第1の結果図と前記第2の結果図を取得する前記ステップは、エピポーラ線補正逆変換と第2のレジストレーション方法を用いて前記第1の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得するステップを含む。
選択的には、エピポーラ線補正逆変換と第2のレジストレーション方法を用いて前記第1の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得する前記ステップは、エピポーラ線補正逆変換を用いて前記第1の処理結果を処理し、第2の処理結果を取得するステップと、第2のレジストレーション方法を用いて前記第2の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得するステップとを含む。
選択的には、エピポーラ線補正逆変換と第2のレジストレーション方法を用いて前記第1の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得する前記ステップは、第2のレジストレーション方法を用いて前記第1の処理結果を処理し、第3の処理結果を取得するステップと、前記エピポーラ線補正逆変換を用いて前記第3の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得するステップとを含む。
選択的には、前記第1のレジストレーション方法は、稠密オプティカルフロー計算法と、半稠密オプティカルフロー計算法と、局所レジストレーション方法と、全局レジストレーション方法とを含む。
選択的には、前記レジストレーション結果に基づいて前記第1の領域と前記第2の画像を融合処理し、融合図を取得する前記ステップは、前記レジストレーション結果に基づいて前記第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無を決定するステップと、前記第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無、のうちの1つ又は複数に基づいて差分値を計算するステップと、前記差分値を予め設定された閾値と比較し、比較結果を取得することと、前記比較結果に基づき、前記第1の領域と前記第2の画像を融合処理し、前記融合図を取得するステップとを含む。
選択的には、前記差分値が前記予め設定された閾値以上である場合、比較結果は、前記第1の領域と前記第2の画像との間の視差が大きいか、又は遮蔽度が大きいか、又は視野内に動く物体が存在することを示し、前記第1の領域と前記第2の画像における対応する画素点を融合せず、前記差分値が前記予め設定された閾値よりも小さい場合、比較結果は、前記第1の領域と前記第2の画像との間の視差が小さく、遮蔽度が小さく、且つ視野内に動く物体が存在しないことを示し、前記第1の領域と前記第2の画像における対応する画素点を融合する。
本発明の実施例の別の態様によれば、第1の画像を取得する第1の撮像ユニットと、第2の画像を取得する第2の撮像ユニットと、前記第1の画像における第1の領域を前記第2の画像とレジストレーションし、レジストレーション結果を取得するレジストレーションユニットであって、前記第1の領域と前記第2の画像は、同じ視野領域に対応するものであるレジストレーションユニットと、前記レジストレーション結果に基づいて前記第1の領域と前記第2の画像を融合処理し、融合図を取得する融合ユニットとを含む、画像処理装置をさらに提供する。
選択的には、前記レジストレーションユニットは、前記第1の領域と前記第2の画像を所定倍率で縮小処理し、第1の縮小画像と第2の縮小画像を取得する縮小ユニットと、予め設定された方法で前記第1の縮小画像と前記第2の縮小画像を処理し、第1の結果図と第2の結果図を取得する第1の処理ユニットと、前記第1の結果図と前記第2の結果図を前記所定倍率で拡大処理し、第1の拡大画像と第2の拡大画像を取得する拡大ユニットと、第1のレジストレーション方法を用いて前記第1の拡大画像と前記第2の拡大画像を処理し、前記レジストレーション結果を取得する第1のレジストレーションサブユニットとを含む。
選択的には、前記融合ユニットは、前記レジストレーション結果に基づいて前記第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無を決定する決定ユニットと、前記第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無、のうちの1つ又は複数に基づいて差分値を計算する計算ユニットと、前記差分値を予め設定された閾値と比較し、比較結果を取得する比較ユニットと、前記比較結果に基づき、前記第1の領域と前記第2の画像を融合処理し、前記融合図を取得する融合サブユニットとを含む。
本発明の実施例の別の態様によれば、記憶されたプログラムを含む記憶媒体であって、前記プログラムが実行されると、前記記憶媒体の位置する機器を制御して上記のいずれか1項に記載の画像処理方法を実行する記憶媒体をさらに提供する。
本発明の実施例の別の態様によれば、プロセッサと、前記プロセッサの実行可能な命令を記憶するメモリとを含む電子機器であって、前記プロセッサは、前記実行可能な命令を実行することによって上記のいずれか1項に記載の画像処理方法を実行するように構成される電子機器をさらに提供する。
本発明の実施例では、第1の撮像ユニットによって第1の画像を取得するステップ、第2の撮像ユニットによって第2の画像を取得するステップ、前記第1の画像における第1の領域を前記第2の画像とレジストレーションし、レジストレーション結果を取得するステップであって、前記第1の領域と前記第2の画像は、同じ視野領域に対応するものであるステップ、前記レジストレーション結果に基づいて前記第1の領域と前記第2の画像を融合処理し、融合図を取得するステップを実行することによって、少なくとも2つの異なる視野を有する撮像ユニットで取得した画像を融合処理することで、画像品質を最適化し、より鮮明な画質を実現し、複数の撮像ユニットによる画像品質が悪いという課題を解決することができる。
ここに説明する添付図面は、本発明に対する更なる理解を提供するために用いられ、本出願の一部を構成しており、本発明の例示的な実施例及びその説明は、本発明を解釈するために用いられ、本発明に対する不当な限定を構成しない。添付図面において、
本発明の実施例に基づく選択的な画像処理方法のフローチャートである。 本発明の実施例に基づく選択的な画像レジストレーション方法のフローチャートである。 本発明の実施例に基づく選択的な画像融合方法のフローチャートである。 図4(a)ないし図4(c)は、本発明の実施例に係わる画像処理方法を採用するテスト効果を示す図である。 図4(a)ないし図4(c)は、本発明の実施例に係わる画像処理方法を採用するテスト効果を示す図である。 図4(a)ないし図4(c)は、本発明の実施例に係わる画像処理方法を採用するテスト効果を示す図である。 本発明の実施例に基づく選択的な画像処理装置の構造ブロック図である。 図6(a)ないし図6(c)は、本発明の実施例に基づく異なるカメラ位置を有する電子機器をそれぞれ示す図である。 図6(a)ないし図6(c)は、本発明の実施例に基づく異なるカメラ位置を有する電子機器をそれぞれ示す図である。 図6(a)ないし図6(c)は、本発明の実施例に基づく異なるカメラ位置を有する電子機器をそれぞれ示す図である。
以下、当業者に本発明の方案をよりよく理解させるために、本発明の実施例における添付図面を参照しながら、本発明の実施例における技術案を明瞭且つ完全に記述する。明らかに、記述された実施例は、本発明の一部の実施例に過ぎず、全ての実施例ではない。本発明における実施例に基づき、当業者が創造的な労力を必要とせずに得られる全ての他の実施例は、いずれも本発明の保護範囲に属すべきである。
なお、本発明の明細書、特許請求の範囲、及び上記添付図面における用語である「第1」、「第2」などは、類似した対象を区別するためのものであり、必ずしも特定の順序又は前後手順を記述するためのものではない。なお、このように使用される順序は、適当な場合に交換可能であり、それによって、ここに記述される本発明の実施例は、ここに図示又は記述されたそれらのもの以外の順序で実施されることができる。なお、用語である「含む」と「有する」、及び、それらの任意の変形は、非排除性の「含む」を意図的にカバーするものであり、例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品又は機器は、必ずしも明瞭に列挙されているそれらのステップ又はユニットに限らず、明瞭に列挙されていない又はそれらのプロセス、方法、製品又は機器に固有の他のステップ又はユニットを含んでもよい。
本発明の実施例は、複数の撮像ユニットを有する電子機器に用いられてもよく、電子機器は、スマートファン、タブレットパソコン、電子リーダ、デスクトップコンピュータ、ワーキングステーション、サーバ、パーソナルデジタルアシスタント(PDA)、携帯型マルチメディアプレイヤー(PMP)、医療機器、カメラ又はウェアラブルデバイス(例えば、腕時計、ブレスレット、メガネ、ヘッドウェアなどの付属品タイプの機器)、電子衣類、体に移植可能な皮膚チップ、車載電子機器などを含んでもよい。
以下では、本発明の実施例の選択的な画像処理方法のフローチャートを説明する。なお、添付図面のフローチャートに示されるステップは、例えばコンピュータにより実行可能なー組の命令のコンピュータシステムにおいて実行されてもよく、また、フローチャートでは、論理順序が示されたが、なんらかの場合に、ここの順序と異なる順序で示されるか、又は記述されるステップを実行してもよい。
図1を参照すると、本発明の実施例に基づく選択的な画像処理方法のフローチャートである。図1に示すように、該画像処理方法は、以下のステップS10、S12、S14、S16を含む。
S10:第1の撮像ユニットによって第1の画像を取得する。
S12:第2の撮像ユニットによって第2の画像を取得する。
S14:第1の画像における第1の領域と第2の画像をレジストレーションし、レジストレーション結果を取得する。ここで、第1の領域と第2の画像は、同じ視野領域に対応する。
S16:レジストレーション結果に基づいて第1の領域と第2の画像を融合処理し、融合図を取得する。
選択的には、本発明の実施例では、該画像処理方法は、複数の撮像ユニットを有する電子機器により取得された画像を処理するために用いられてもよく、複数の撮像ユニットは、異なる視野を全て又は部分的に有してもよく、電子機器の異なる位置にそれぞれ独立して取り付けられるか、又は、全て又は一部を1つの撮像モジュール又は複数の撮像モジュールに集積して組込み又は外付けの方式で電子機器に取り付けられてもよい。ステップS10における第1の撮像ユニットは、電子機器の1つのレンズ又はカメラであってもよく、ステップS12における第2の撮像ユニットは、電子機器の別のレンズ又はカメラであってもよい。ここで、第1の撮像ユニットと第2の撮像ユニットは、独立して取り付けられてもよく、1つの撮像モジュールに集積されてもよい。第1の撮像ユニットは、第2の撮像ユニットとは異なる視野を有する。具体的には、第1の撮像ユニットの視野は、第2の撮像ユニットの視野よりも大きく、第1の撮像ユニットは、例えば、広角カメラであってもよく、第2の撮像ユニットは、望遠カメラであってもよく、また、第1の撮像ユニットは、例えば、超広角カメラであってもよく、第2の撮像ユニットは、例えば、広角カメラなどであってもよい。
本発明の実施例では、上記ステップによって、少なくとも2つの異なる視野を有する撮像ユニットで取得した画像を融合処理することで、画像品質を最適化し、より鮮明な画質を実現することができる。電子機器が複数の異なる視野を有する撮像ユニットを含む場合、例えば、超広角カメラと、広角カメラと、望遠カメラとを含むか、又は超広角カメラと、広角カメラと、望遠カメラと、超望遠カメラとを含む場合、ユーザが写真を撮る時、撮像ユニットを合理的に選択及び利用し、画質が最適なピクチャをスマートに合成することができる。
本発明の別の実施例では、該画像処理方法は、画質向上技術を用いて第1の画像における、第1の領域以外の領域である第2の領域を処理するステップS18をさらに含んでもよい。選択的には、画質向上技術は、シングルフレーム又はマルチフレームに基づく深層学習技術を含み、解析力の向上、ぼかし除去、ノイズ除去などの技術的効果を実現することができる。
本発明の別の実施例では、該画像処理方法は、第1の画像又は第2の画像を取得した後、第1の画像と第2の画像を処理するステップS13であって、第1の画像又は第2の画像の自動露光(AE)情報、自動ホワイトバランス(AWB)情報、自動フォーカス(AF)情報などを調整することで、第1の画像又は第2の画像の色、輝度などを補正することを含むステップS13をさらに含んでもよい。
以下では、ステップS14を具体的に説明する。図2を参照すると、本発明の実施例に基づく選択的な画像レジストレーション方法のフローチャートである。
本発明の実施例では、第1の画像における第1の領域と第2の画像をレジストレーションし、レジストレーション結果を取得するステップS14は、以下のステップS140、S142、S144、S146を含んでもよい。
S140:第1の領域と第2の画像を所定倍率で縮小処理し、第1の縮小画像と第2の縮小画像を取得する。
S142:予め設定された方法で第1の縮小画像と第2の縮小画像を処理し、第1の結果図と第2の結果図を取得する。
S144:第1の結果図と第2の結果図を所定倍率で拡大処理し、第1の拡大画像と第2の拡大画像を取得する。
S146:第1のレジストレーション方法を用いて第1の拡大画像と第2の拡大画像を処理し、レジストレーション結果を取得する。
選択的には、本発明の一実施例では、所定倍率は、主に性能要求に応じてカスタマイズされ、例えば、2倍、3倍などであり、第1の領域と第2の画像を所定倍率で縮小処理することによって、アルゴリズム処理時間全体を最適化し、アルゴリズム実行性能を速めることができる。
選択的には、本発明の一実施例では、予め設定された方法は、Dense Inverse Search(DIS)オプティカルフロー法であり、主にブロックマッチングと、スパースオプティカルフロー稠密化と変分最適化とを含み、スパースオプティカルフロー法と稠密オプティカルフロー法を両立させたオプティカルフロー法である。
選択的には、本発明の別の実施例では、予め設定された方法で第1の縮小画像と第2の縮小画像を処理し、第1の結果図と第2の結果図を取得するステップは、第1の縮小画像と第2の縮小画像をエピポーラ線(Epipolar Line)補正及びマッチング計算し、第1の処理結果を取得するステップと、第1の処理結果に2回目の処理を行い、第1の結果図と第2の結果図を取得するステップとを含む。ここで、エピポーラ線補正は、第1の縮小画像と第2の縮小画像との間の対応する画素点を同一の水平線に補正するために用いられ、エピポーラ線補正後の画像ペアには、水平方向の視差のみが存在し、垂直方向の視差がゼロである(垂直方向の視差のみが存在し、水平方向の視差がゼロである可能性もある)。これにより、マッチング計算を二次元から一次元に下げることが可能になり、これによって、マッチング速度及び精度を向上させることができる。マッチング計算は、エピポーラ線補正後の画像ペアにおける対応する画素点のオフセット量を計算し、オフセット量に基づいて第1の縮小画像又は第2の縮小画像の該当する画素点を調整するために用いられ、これにより、画像ペアのマッチングを実現することができる。
エピポーラ線補正された画像ペアが第1の縮小画像と第2の縮小画像に対して幾何学的に変形するため、第1の縮小画像と第2の縮小画像に対応する視差図を取得するために、第1の処理結果に対して2回目の処理を行う必要がある。本発明の一実施例では、第1の処理結果に対して2回目の処理を行い、第1の結果図と第2の結果図を取得するステップは、エピポーラ線補正逆変換と第2のレジストレーション方法を用いて第1の処理結果を処理し、第1の結果図と第2の結果図を取得するステップを含む。エピポーラ線補正逆変換と第2のレジストレーション方法は、この順に行ってもよく、例えば、一実施例では、まず、エピポーラ線補正逆変換を用いて第1の処理結果を処理し、第2の処理結果を取得してから、第2のレジストレーション方法を用いて第2の処理結果を処理し、第1の結果図と第2の結果図を取得する。さらに、例えば、別の実施例では、まず、第2のレジストレーション方法を用いて第1の処理結果を処理し、第3の処理結果を取得してから、エピポーラ線補正逆変換を用いて第3の処理結果を処理し、第1の結果図と第2の結果図を取得する。これにより、エピポーラ線補正逆変換と第2のレジストレーション方法によって処理して得られた第1の結果図と第2の結果図は、第1の縮小画像と第2の縮小画像の幾何形状と一致し、対応する画素点は、同じ均一座標を有する。
選択的には、本発明の実施例では、第1のレジストレーション方法又は第2のレジストレーション方法は、稠密オプティカルフロー計算法、半稠密オプティカルフロー計算法、局所レジストレーション方法、全局レジストレーション方法などを含んでもよい。
上記ステップによって、同じ視野領域に対応する第1の画像における第1の領域と第2の画像をレジストレーションし、レジストレーション結果を取得することができる。
以下では、ステップS16を具体的に説明する。図3を参照すると、本発明の実施例に基づく選択的な画像融合方法のフローチャートである。
本発明の実施例では、レジストレーション結果に基づいて第1の領域と第2の画像を融合処理するステップS16は、以下のステップS160、S162、S164、S166を含む。
S160:前記レジストレーション結果に基づいて、前記第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無を決定する。
S162:第1の領域と第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無、のうちの1つ又は複数に基づいて差分値を計算する。
S164:差分値を予め設定された閾値と比較し、比較結果を取得する。
S166:比較結果に基づき、第1の領域と第2の画像を融合処理し、融合図を取得する。
選択的には、本発明の実施例では、差分値が予め設定された閾値以上である場合、比較結果は、第1の領域と第2の画像との間の視差が大きいか、又は遮蔽度が大きいか、又は視野内に動く物体が存在することを示し、第1の領域と第2の画像における対応する画素点を融合せず、差分値が予め設定された閾値よりも小さい場合、比較結果は、第1の領域と第2の画像との間の視差が小さく、且つ遮蔽度が小さく、且つ視野内に動く物体が存在しないことを示し、第1の領域と第2の画像における対応する画素点を融合することができる。本発明の一実施例では、予め設定された閾値は、望ましい融合効果に基づいて決定されてもよく、予め設定された閾値が大きければ大きいほど、融合要求が緩やかになり、第1の領域と第2の画像において融合される画素点は多くなる一方、予め設定された閾値が小さければ小さいほど、融合要求が厳しくなり、第1の領域と第2の画像において融合される画素点は少なくなる。
選択的には、本発明の実施例では、視差、遮蔽度は、第1の縮小画像と第2の縮小画像をエピポーラ線補正及びマッチング計算して得られた誤差によって示される。視野内に動く物体の有無は、第1の拡大画像と第2の拡大画像に対応する画素点の誤差によって示される。
図4(a)から図4(c)は、本発明の実施例に係わる画像処理方法を利用するテスト効果を示す。図4(a)は、第1の撮像ユニットによって取得した第1の画像を示し、図4(a)では、ブロックにおける領域は、第1の画像における第1の領域42Aであり、目標物がミツバチ缶のラベルのような比較的に小さいものである場合、第1の撮像ユニットがその目標物に対して正確に焦点を合わせることができないため、撮影画像がぼやけてしまい、図4(a)の右下隅に示されるラベル拡大図44Aに示すように、ラベルのフォントは、非常にぼやけており、認識しにくい。図4(b)は、第2の撮像ユニットによって取得した第2の画像を示し、第2の画像42Bは、第1の画像における第1の領域42Aに対応しており、目標物がミツバチ缶のラベルのような比較的に小さいものである場合、第2の撮像ユニットは、その目標物正確に焦点を合わせ、鮮明な撮影画像を取得することができ、図4(b)の右下隅に示されるラベル拡大図44Bに示すように、ラベルのフォントは、はっきり見える。図4(c)は、本発明の実施例に係わる画像処理方法を利用して得られた融合図を示し、得られた画像視野角の大きさが変わらない場合、即ち、融合図4(c)は、第1の画像4(a)の画像の視野角と同様に、第1の画像の第1の領域と第2の画像を融合して融合領域42Cを取得する。図4(c)の右下隅に示されるラベル拡大図44Cに示すように、融合された後も、ラベル上のフォントは、依然としてはっきり見える。
図5を参照すると、本発明の実施例に基づく選択的な画像処理装置の構造ブロック図である。図5に示すように、画像処理装置5は、
第1の画像を取得する第1の撮像ユニット50と、
第2の画像を取得する第2の撮像ユニット52と、
前記第1の画像における第1の領域と前記第2の画像をレジストレーションし、レジストレーション結果を取得するレジストレーションユニットであって、前記第1の領域と前記第2の画像は、同じ視野領域に対応するものであるレジストレーションユニット54と、
前記レジストレーション結果に基づいて前記第1の領域と前記第2の画像を融合処理し、融合図を取得する融合ユニット56と、を含む。
選択的には、本発明の実施例では、画像処理装置は、画質向上技術を用いて第1の画像における第2の領域を処理する画質向上ユニットをさらに含んでもよい。ここで、第2の領域は、第1の画像における第1の領域以外の領域である。選択的には、画質向上技術は、シングルフレーム又はマルチフレームに基づく深層学習技術を含み、解析力の向上、ぼかし除去、ノイズ除去などの技術的効果を実現することができる。
本発明の別の実施例では、画像処理装置は、第1の画像又は第2の画像を取得した後、第1の画像と第2の画像を処理する補正ユニットをさらに含んでもよく、この処理は、第1の画像又は第2の画像の自動露光(AE)情報、自動ホワイトバランス(AWB)情報、自動フォーカス(AF)情報などを調整することで、第1の画像又は第2の画像の色、輝度などを補正することを含む。
選択的には、本発明の実施例では、レジストレーションユニット54は、
第1の領域と第2の画像を所定倍率で縮小処理し、第1の縮小画像と第2の縮小画像を取得する縮小ユニット540と、
予め設定された方法で第1の縮小画像と第2の縮小画像を処理し、第1の結果図と第2の結果図を取得する第1の処理ユニット542と、
第1の結果図と第2の結果図を所定倍率で拡大処理し、第1の拡大画像と第2の拡大画像を取得する拡大ユニット544と、
第1のレジストレーション方法で第1の拡大画像と前記第2の拡大画像を処理し、前記レジストレーション結果を取得する第1のレジストレーションサブユニット546と、を含んでもよい。
選択的には、本発明の一実施例では、所定倍率は、主に性能要求に応じてカスタマイズされ、例えば、2倍、3倍などであり、第1の領域と第2の画像を所定倍率で縮小処理することによって、アルゴリズム処理時間全体を最適化し、アルゴリズム実行性能を速めることができる。
選択的には、本発明の一実施例では、予め設定された方法は、主にDense Inverse Search(DIS)オプティカルフロー法、ブロックマッチングと、スパースオプティカルフロー稠密化と、変分最適化とを含み、スパースオプティカルフロー法と稠密オプティカルフロー法を両立させたオプティカルフロー法である。
選択的には、本発明の別の実施例では、予め設定された方法で第1の縮小画像と第2の縮小画像を処理し、第1の結果図と第2の結果図を取得するステップは、第1の縮小画像と第2の縮小画像をエピポーラ線(Epipolar Line)補正及びマッチング計算し、第1の処理結果を取得するステップと、第1の処理結果に対して2回目の処理を行い、第1の結果図と第2の結果図を取得するステップとを含む。ここで、エピポーラ線補正は、第1の縮小画像と第2の縮小画像との間の対応する画素点を同一の水平線に補正するために用いられ、エピポーラ線補正後の画像ペアには、水平方向の視差のみが存在し、垂直方向の視差がゼロである(垂直方向の視差のみが存在し、水平方向の視差がゼロである可能性もある)。これにより、マッチング計算を二次元から一次元に下げることが可能になり、これによって、マッチング速度及び精度を向上させることができる。マッチング計算は、エピポーラ線補正後の画像ペアにおける対応する画素点のオフセット量を計算し、オフセット量に基づいて第1の縮小画像又は第2の縮小画像の該当する画素点を調整するために用いられ、これにより画像ペアのマッチングを実現することができる。
エピポーラ線補正された画像ペアが第1の縮小画像と第2の縮小画像に対して幾何学的に変形するため、第1の縮小画像と第2の縮小画像に対応する視差図を取得するために、第1の処理結果に対して2回目の処理を行う必要がある。本発明の一実施例では、第1の処理結果に対して2回目の処理を行い、第1の結果図と第2の結果図を取得するステップは、エピポーラ線補正逆変換と第2のレジストレーション方法を用いて第1の処理結果を処理し、第1の結果図と第2の結果図を取得するステップを含む。エピポーラ線補正逆変換と第2のレジストレーション方法は、この順に行ってもよく、例えば、一実施例では、まず、エピポーラ線補正逆変換を用いて第1の処理結果を処理し、第2の処理結果を取得してから、第2のレジストレーション方法を用いて第2の処理結果を処理し、第1の結果図と第2の結果図を取得する。さらに、例えば、別の実施例では、まず、第2のレジストレーション方法を用いて第1の処理結果を処理し、第3の処理結果を取得してから、エピポーラ線補正逆変換を用いて第3の処理結果を処理し、第1の結果図と第2の結果図を取得する。これにより、エピポーラ線補正逆変換と第2のレジストレーション方法によって処理して得られた第1の結果図と第2の結果図は、第1の縮小画像と第2の縮小画像の幾何形状と一致し、対応する画素点は、同じ均一座標を有する。
選択的には、本発明の実施例では、第1のレジストレーション方法又は第2のレジストレーション方法は、稠密オプティカルフロー計算法、半稠密オプティカルフロー計算法、局所レジストレーション方法、全局レジストレーション方法などを含んでもよい。
上記ステップによって、同じ視野領域に対応する第1の画像における第1の領域と第2の画像をレジストレーションし、レジストレーション結果を取得することができる。
選択的には、本発明の実施例では、融合ユニット56は、
レジストレーション結果に基づいて第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無を決定する決定ユニット560と、
第1の領域と第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無、のうちの1つ又は複数に基づいて、差分値を計算する計算ユニット562と、
差分値を予め設定された閾値と比較し、比較結果を取得する比較ユニット564と、
比較結果に基づき、第1の領域と第2の画像を融合処理し、融合図を取得する融合サブユニット566と、を含んでもよい。
選択的には、本発明の実施例では、差分値が予め設定された閾値以上である場合、比較結果は、第1の領域と第2の画像との間の視差が大きいか、又は遮蔽度が大きいか、又は視野内に動く物体が存在することを示し、第1の領域と第2の画像における対応する画素点を融合せず、差分値が予め設定された閾値よりも小さい場合、比較結果は、第1の領域と第2の画像との間の視差が小さく、遮蔽度が小さく、且つ視野内に動く物体が存在しないことを示し、第1の領域と第2の画像における対応する画素点を融合することができる。本発明の一実施例では、予め設定された閾値は、望ましい融合効果に基づいて決定されてもよく、予め設定された閾値が大きければ大きいほど、融合要求が緩やかになり、第1の領域と第2の画像において融合される画素点は多くなる一方、予め設定された閾値が小さければ小さいほど、融合要求が厳しくなり、第1の領域と第2の画像において融合される画素点は少なくなる。
選択的には、本発明の実施例では、視差、遮蔽度は、第1の縮小画像と第2の縮小画像をエピポーラ線補正及びマッチング計算して得られた誤差によって示される。視野内に動く物体の有無は、第1の拡大画像と第2の拡大画像に対応する画素点の誤差によって示される。
本発明の実施例は、複数の撮像ユニットを有する電子機器に用いられてもよい。図6(a)から図6(c)を参照すると、本発明の実施例に基づく異なるカメラ位置を有する電子機器をそれぞれ示した。以上から分かるように、複数の撮像ユニットは、電子機器の異なる位置にそれぞれ独立して取り付けられてもよい。ここで、複数の撮像ユニットは、少なくとも2つの異なる視野を有する撮像ユニットを含む。
もちろん、図6(a)から図6(c)は、3つの撮像ユニットを有する電子機器の例に過ぎない。当業者であれば、電子機器における複数の撮像ユニットの数と位置は、必要に応じて調整されてもよく、図6(a)から図6(c)に示される例に限らないことがわかる。例えば、複数の撮像ユニットの数は、3つ以上であってもよく、一部又は全ては、異なる視野を有してもよく、電子機器の異なる位置にそれぞれ独立して取り付けられるか、又は、一部又は全てを1つの撮像モジュール又は複数の撮像モジュールに集積して組込み又は外付けの方式で電子機器に取り付けられてもよい。
本発明の実施例の別の態様によれば、プロセッサと、プロセッサの実行可能な命令を記憶するメモリとを含む電子機器であって、プロセッサは、実行可能な命令を実行することによって上記のいずれか1項の画像処理方法を実行するように構成される電子機器をさらに提供する。
本発明の実施例の別の態様によれば、記憶されたプログラムを含む記憶媒体であって、プログラムが実行されると、記憶媒体の位置する機器を制御して上記のいずれか1項の画像処理方法を実行する記憶媒体をさらに提供する。
上記本発明の実施例の番号は、記述のためだけであり、実施例の優劣を表すものではない。
本発明の上記実施例では、各実施例の記述に対してそれぞれ重点が置かれており、ある実施例には、詳細な部分がなく、他の実施例の関連記述を参照してもよい。
本出願によるいくつかの実施例では、理解すべきことは、掲示された技術内容は、他の方式によって実現されてもよい。そのうち、以上に記述された装置の実施例は、例示的なものに過ぎず、例えば前記ユニットの区分は、論理的機能区分であってもよく、実際に実現する時、他の区分方式があってもよい。例えば、複数のユニット又はコンポーネントは、別のシステムに結合されてもよく、又は集積されてもよく、又はいくつかの特徴が無視されてもよく、又は実行されなくてもよい。また、表示又は討論された同士間の結合又は直接結合又は通信接続は、いくつかのインタフェース、ユニット又はモジュールの間接的結合又は通信接続であってもよく、電気的又は他の形式であってもよい。
前記分離された部品として説明されるユニットは、物理的に分離されてもよく、物理的に分離されなくてもよく、ユニットとして表示される部品は、物理的なユニットであってもよく、物理的なユニットでなくてもよく、即ち、1つの場所に位置してもよく、又は複数のユニットに分布してもよい。実際の必要に応じて、そのうちの一部又は全てのユニットを選択して、本実施例の方案の目的を実現することができる。
また、本発明の各実施例における各機能ユニットは、1つの処理ユニットに集積されてもよく、各ユニットが単独に物理的に存在しもよく、2つ又は2つ以上のユニットが1つのユニットに集積されてもよい。上記集積されたユニットは、ハードウェアの形式で実現されてもよく、ソフトウェア機能ユニットの形式で実現されてもよい。
前記集積されたユニットは、ソフトウェア機能ユニットの形式で実現され、且つ独立した製品として販売又は使用される場合、1つのコンピュータ可読記憶媒体に記憶されてもよい。このような理解を踏まえて、本発明の技術案は、実質には又は従来の技術に寄与した部分又は該技術案の全て又は一部がソフトウェア製品の形式によって表われてもよい。該コンピュータソフトウェア製品は、1つの記憶媒体に記憶され、一台のコンピュータ機器(パーソナルコンピュータ、サーバ又はネットワーク機器などであってもよい)に本発明の各実施例に記載の方法の全て又は一部のステップを実行させる若干の命令を含む。しかし、前述した記憶媒体は、Uディスク、リードオンリーメモリ(ROM、Read-Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、リムーバブルハードディスク、磁気ディスク又は光ディスクなどの様々なプログラムコードを記憶可能な媒体を含む。
以上は、本発明の好ましい実施の形態に過ぎず、指摘すべきなのは、当業者にとって、本発明の原理から逸脱しない前提で、若干の改良と修正を行ってもよく、これらの改良と修正は、いずれも本発明の保護範囲と見なすべきである。

Claims (16)

  1. 少なくとも2つの撮像ユニットを有する電子機器に用いられる画像処理方法であって、
    第1の撮像ユニットによって第1の画像を取得するステップと、
    第2の撮像ユニットによって第2の画像を取得するステップと、
    前記第1の画像における第1の領域と前記第2の画像をレジストレーションし、レジストレーション結果を取得するステップであって、前記第1の領域と前記第2の画像を所定倍率で縮小処理し、第1の縮小画像と第2の縮小画像を取得するステップと、予め設定された方法で前記第1の縮小画像と前記第2の縮小画像を処理し、第1の結果図と第2の結果図を取得するステップと、前記第1の結果図と前記第2の結果図を前記所定倍率で拡大処理し、第1の拡大画像と第2の拡大画像を取得するステップと、第1のレジストレーション方法を用いて前記第1の拡大画像と前記第2の拡大画像を処理し、前記レジストレーション結果を取得するステップと、を含み、前記第1の領域と前記第2の画像は、同じ視野領域に対応するものであるステップと、
    前記レジストレーション結果に基づいて、前記第1の領域と前記第2の画像を融合処理し、融合図を取得するステップと、を含む、画像処理方法。
  2. 画質向上技術を用いて前記第1の画像における第2の領域を処理するステップをさらに含み、前記第2の領域は、前記第1の画像における第1の領域以外の領域である、請求項1に記載の画像処理方法。
  3. 前記画質向上技術は、シングルフレーム又はマルチフレームに基づく深層学習技術を含む、請求項に記載の画像処理方法。
  4. 前記第1の撮像ユニットは、前記第2の撮像ユニットと異なる視野を有する、請求項1に記載の画像処理方法。
  5. 前記予め設定された方法は、Dense Inverse Searchオプティカルフロー法である、請求項に記載の画像処理方法。
  6. 予め設定された方法で前記第1の縮小画像と前記第2の縮小画像を処理し、第1の結果図と第2の結果図を取得する前記ステップは、
    前記第1の縮小画像と前記第2の縮小画像をエピポーラ線補正及びマッチング計算し、第1の処理結果を取得するステップと、
    前記第1の処理結果に2回目の処理を行い、前記第1の結果図と前記第2の結果図を取得するステップと、を含む、請求項に記載の画像処理方法。
  7. 前記第1の処理結果に2回目の処理を行い、前記第1の結果図と前記第2の結果図を取得する前記ステップは、
    エピポーラ線補正逆変換と第2のレジストレーション方法を用いて前記第1の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得するステップを含む、請求項に記載の画像処理方法。
  8. エピポーラ線補正逆変換と第2のレジストレーション方法を用いて前記第1の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得する前記ステップは、
    エピポーラ線補正逆変換を用いて前記第1の処理結果を処理し、第2の処理結果を取得するステップと、
    第2のレジストレーション方法を用いて前記第2の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得するステップと、を含む、請求項に記載の画像処理方法。
  9. エピポーラ線補正逆変換と第2のレジストレーション方法を用いて前記第1の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得する前記ステップは、
    第2のレジストレーション方法を用いて前記第1の処理結果を処理し、第3の処理結果を取得するステップと、
    前記エピポーラ線補正逆変換を用いて前記第3の処理結果を処理し、前記第1の結果図と前記第2の結果図を取得するステップと、を含む、請求項に記載の画像処理方法。
  10. 前記第1のレジストレーション方法は、稠密オプティカルフロー計算法と、半稠密オプティカルフロー計算法と、局所レジストレーション方法と、全局レジストレーション方法とを含む、請求項に記載の画像処理方法。
  11. 前記レジストレーション結果に基づいて、前記第1の領域と前記第2の画像を融合処理し、融合図を取得する前記ステップは、
    前記レジストレーション結果に基づいて、前記第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無を決定するステップと、
    前記第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無、のうちの1つ又は複数に基づいて、差分値を計算するステップと、
    前記差分値を予め設定された閾値と比較し、比較結果を取得するステップと、
    前記比較結果に基づき、前記第1の領域と前記第2の画像を融合処理し、前記融合図を取得するステップと、を含む、請求項1に記載の画像処理方法。
  12. 前記差分値が前記予め設定された閾値以上である場合、
    比較結果は、前記第1の領域と前記第2の画像との間の視差が大きいか、又は遮蔽度が大きいか、又は視野内に動く物体が存在することを示し、前記第1の領域と前記第2の画像における対応する画素点を融合せず、
    前記差分値が前記予め設定された閾値よりも小さい場合、
    比較結果は、前記第1の領域と前記第2の画像との間の視差が小さく、遮蔽度が小さく、且つ視野内に動く物体が存在しないことを示し、前記第1の領域と前記第2の画像における対応する画素点を融合する、請求項1に記載の画像処理方法。
  13. 画像処理装置であって、
    第1の画像を取得する第1の撮像ユニットと、
    第2の画像を取得する第2の撮像ユニットと、
    前記第1の画像における第1の領域と前記第2の画像をレジストレーションし、レジストレーション結果を取得するレジストレーションユニットであって、前記第1の領域と前記第2の画像を所定倍率で縮小処理し、第1の縮小画像と第2の縮小画像を取得する縮小ユニットと、予め設定された方法で前記第1の縮小画像と前記第2の縮小画像を処理し、第1の結果図と第2の結果図を取得する第1の処理ユニットと、前記第1の結果図と前記第2の結果図を前記所定倍率で拡大処理し、第1の拡大画像と第2の拡大画像を取得する拡大ユニットと、第1のレジストレーション方法を用いて、前記第1の拡大画像と前記第2の拡大画像を処理し、前記レジストレーション結果を取得する第1のレジストレーションサブユニットと、を含み、前記第1の領域と前記第2の画像は、同じ視野領域に対応するものであるレジストレーションユニットと、
    前記レジストレーション結果に基づいて、前記第1の領域と前記第2の画像を融合処理し、融合図を取得する融合ユニットと、を含む、画像処理装置。
  14. 前記融合ユニットは、
    前記レジストレーション結果に基づいて、前記第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無を決定する決定ユニットと、
    前記第1の領域と前記第2の画像との間の視差、遮蔽度、又は視野内に動く物体の有無、のうちの1つ又は複数に基づいて差分値を計算する計算ユニットと、
    前記差分値を予め設定された閾値と比較し、比較結果を取得する比較ユニットと、
    前記比較結果に基づき、前記第1の領域と前記第2の画像を融合処理し、前記融合図を取得する融合サブユニットと、を含む、請求項1に記載の画像処理装置。
  15. 記憶されたプログラムを含む記憶媒体であって、
    前記プログラムが実行されると、前記記憶媒体の位置する機器を制御して請求項1~請求項1のいずれか1項に記載の画像処理方法を実行する、記憶媒体。
  16. プロセッサと、前記プロセッサの実行可能な命令を記憶するメモリと、を含む電子機器であって、
    前記プロセッサは、前記実行可能な命令を実行することによって請求項1~請求項1のいずれか1項に記載の画像処理方法を実行するように構成される、電子機器。
JP2022520039A 2019-09-30 2020-09-24 画像処理方法、画像処理装置、及びそれを応用する電子機器 Active JP7412545B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910943314.8 2019-09-30
CN201910943314.8A CN112584034B (zh) 2019-09-30 2019-09-30 图像处理方法、图像处理装置及应用其的电子设备
PCT/CN2020/117520 WO2021063245A1 (zh) 2019-09-30 2020-09-24 图像处理方法、图像处理装置及应用其的电子设备

Publications (2)

Publication Number Publication Date
JP2022550191A JP2022550191A (ja) 2022-11-30
JP7412545B2 true JP7412545B2 (ja) 2024-01-12

Family

ID=75116530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022520039A Active JP7412545B2 (ja) 2019-09-30 2020-09-24 画像処理方法、画像処理装置、及びそれを応用する電子機器

Country Status (5)

Country Link
US (1) US20220343520A1 (ja)
JP (1) JP7412545B2 (ja)
KR (1) KR102649993B1 (ja)
CN (1) CN112584034B (ja)
WO (1) WO2021063245A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113570530B (zh) * 2021-06-10 2024-04-16 北京旷视科技有限公司 图像融合方法、装置、计算机可读存储介质和电子设备
CN113793272B (zh) * 2021-08-11 2024-01-26 东软医疗系统股份有限公司 图像降噪方法及装置、存储介质、终端
CN114979487A (zh) * 2022-05-27 2022-08-30 联想(北京)有限公司 图像处理方法、装置及电子设备和存储介质
CN115242947B (zh) * 2022-07-01 2023-08-08 浙江大学 一种头戴式高清伤口评估及记录系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194700A (ja) 2008-02-15 2009-08-27 Olympus Corp 画像処理装置及び画像処理プログラム
JP2016527734A (ja) 2013-06-13 2016-09-08 コアフォトニクス リミテッド デュアルアパーチャズームデジタルカメラ
JP2019069145A (ja) 2017-10-06 2019-05-09 キヤノンメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理システム
WO2019167571A1 (ja) 2018-02-27 2019-09-06 ソニーセミコンダクタソリューションズ株式会社 画像処理装置及び画像処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080030592A1 (en) * 2006-08-01 2008-02-07 Eastman Kodak Company Producing digital image with different resolution portions
CN102075679A (zh) * 2010-11-18 2011-05-25 无锡中星微电子有限公司 一种图像采集方法和装置
CN105828067A (zh) * 2016-04-19 2016-08-03 奇酷互联网络科技(深圳)有限公司 双摄像头被遮挡的确定方法、确定装置和终端
WO2018016151A1 (ja) * 2016-07-22 2018-01-25 ソニー株式会社 画像処理装置と画像処理方法
CN107770433B (zh) * 2016-08-15 2020-08-04 广州立景创新科技有限公司 影像获取装置及其影像平顺缩放方法
CN106385541A (zh) * 2016-09-30 2017-02-08 虹软(杭州)科技有限公司 利用广角摄像组件及长焦摄像组件实现变焦的方法
CN107087107B (zh) * 2017-05-05 2019-11-29 中国科学院计算技术研究所 基于双摄像头的图像处理装置及方法
US10972672B2 (en) * 2017-06-05 2021-04-06 Samsung Electronics Co., Ltd. Device having cameras with different focal lengths and a method of implementing cameras with different focal lengths
US10645358B2 (en) * 2018-02-20 2020-05-05 Gopro, Inc. Saturation management for luminance gains in image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009194700A (ja) 2008-02-15 2009-08-27 Olympus Corp 画像処理装置及び画像処理プログラム
JP2016527734A (ja) 2013-06-13 2016-09-08 コアフォトニクス リミテッド デュアルアパーチャズームデジタルカメラ
JP2019069145A (ja) 2017-10-06 2019-05-09 キヤノンメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理システム
WO2019167571A1 (ja) 2018-02-27 2019-09-06 ソニーセミコンダクタソリューションズ株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
CN112584034B (zh) 2023-04-07
KR102649993B1 (ko) 2024-03-20
JP2022550191A (ja) 2022-11-30
US20220343520A1 (en) 2022-10-27
CN112584034A (zh) 2021-03-30
KR20220073824A (ko) 2022-06-03
WO2021063245A1 (zh) 2021-04-08

Similar Documents

Publication Publication Date Title
JP7412545B2 (ja) 画像処理方法、画像処理装置、及びそれを応用する電子機器
US10972672B2 (en) Device having cameras with different focal lengths and a method of implementing cameras with different focal lengths
US11490016B2 (en) Zooming method and electronic device using the same
EP3218870B1 (en) Parallax tolerant video stitching with spatial-temporal localized warping and seam finding
US10970821B2 (en) Image blurring methods and apparatuses, storage media, and electronic devices
TWI808987B (zh) 將相機與陀螺儀融合在一起的五維視頻穩定化裝置及方法
US20160301868A1 (en) Automated generation of panning shots
CN109767466B (zh) 画面渲染方法、装置、终端及对应的存储介质
US10942567B2 (en) Gaze point compensation method and apparatus in display device, and display device
US20190130536A1 (en) Image blurring methods and apparatuses, storage media, and electronic devices
CN109561257B (zh) 画面对焦方法、装置、终端及对应的存储介质
CN109191506B (zh) 深度图的处理方法、系统及计算机可读存储介质
US20190222744A1 (en) Image Photographing Method, Apparatus, and Terminal
CN112368710B (zh) 对来自多个帧的内容进行组合的方法及其电子装置
US11184525B2 (en) Method and apparatus for focusing
WO2023142732A1 (zh) 图像处理方法、装置和电子设备
CN113395434B (zh) 一种预览图像虚化方法、存储介质及终端设备
US10902265B2 (en) Imaging effect based on object depth information
CN113938578A (zh) 一种图像虚化方法、存储介质及终端设备
CN113766090B (zh) 一种图像处理方法、终端以及存储介质
US20180167599A1 (en) Apparatus and method for generating image of arbitrary viewpoint using camera array and multi-focus image
CN114143442B (zh) 图像虚化方法、计算机设备、计算机可读存储介质
WO2023040013A1 (zh) Ar眼镜的焦距调节方法、装置、设备及可读存储介质
CN115150606A (zh) 一种图像虚化方法、装置、存储介质及终端设备
CN115170581A (zh) 人像分割模型的生成方法、人像分割模型及人像分割方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231226

R150 Certificate of patent or registration of utility model

Ref document number: 7412545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150