JP7557560B2 - 撮影システムおよび画像融合方法 - Google Patents

撮影システムおよび画像融合方法 Download PDF

Info

Publication number
JP7557560B2
JP7557560B2 JP2023022643A JP2023022643A JP7557560B2 JP 7557560 B2 JP7557560 B2 JP 7557560B2 JP 2023022643 A JP2023022643 A JP 2023022643A JP 2023022643 A JP2023022643 A JP 2023022643A JP 7557560 B2 JP7557560 B2 JP 7557560B2
Authority
JP
Japan
Prior art keywords
objects
sub
images
image
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023022643A
Other languages
English (en)
Other versions
JP2024028090A (ja
Inventor
志明 陳
尚安 蔡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wistron Corp
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Publication of JP2024028090A publication Critical patent/JP2024028090A/ja
Application granted granted Critical
Publication of JP7557560B2 publication Critical patent/JP7557560B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Lining Or Joining Of Plastics Or The Like (AREA)

Description

本発明は、撮影システムに関するものであり、特に、撮影システムおよび画像融合方法に関するものである。
一般的に、撮影システムは、通常、複数のカメラを有する。情景を撮影するために、異なるカメラが異なる部分の情景を別々に撮像することができる。そのため、撮像した画像を1つに接合または融合さえすれば、より完成した情景画像を取得することができる。
しかしながら、情景には異なるオブジェクトが存在する可能性がある。異なるカメラが同じオブジェクトを撮影した時、撮像された画像は、角度や画質が異なる問題が生じる可能性があるため、画像の接合や融合が困難になり、画質を下げる結果となる。
本発明は、接合または融合した画像の画質をより高めることのできる撮影システムおよび画像融合方法に関するものである。
本発明の1つの実施形態は、複数のカメラおよびコントローラを含む撮影システムを提供する。カメラは、情景を撮影して、複数のサブ画像を生成するよう構成される。コントローラは、カメラに信号接続され、サブ画像を取得する。コントローラは、サブ画像を分析して、情景に含まれる複数のオブジェクトを取得する。コントローラが各オブジェクトのパレート集合(Pareto set)を確立した後、コントローラは、各オブジェクトのパレート集合に基づいてオブジェクトを接合し、サブ画像の融合後の画像を生成する。
本発明の1つの実施形態は、以下のステップを含む画像融合方法を提供する。複数のカメラの各光学パラメータに基づいて最適化された光学パラメータを計算する。カメラを使用して情景を撮影し、複数のサブ画像を取得する。サブ画像を分析して、情景に含まれる複数のオブジェクトを取得する。各オブジェクトのパレート集合を確立する。各オブジェクトのパレート集合に基づいてオブジェクトを接合し、サブ画像の融合後の画像を生成する。
以上のように、本発明の1つの実施形態に基づく撮影システムおよび画像融合方法は、コントローラが各オブジェクトのパレート集合を確立した後にオブジェクトを接合し、サブ画像の融合後の画像を生成する。したがって、接合および融合のプロセスにおいて、画質の悪い部分が排除されるため、サブ画像の融合後の画像は、より優れた画質を有する。
添付図面は、本発明の原理がさらに理解されるために含まれており、本明細書に組み込まれ、且つその一部を構成するものである。図面は、本発明の実施形態を例示しており、説明とともに、本発明の原理を説明する役割を果たしている。
本発明の1つの実施形態に係る情景を撮影する撮影システムの概略図である。 本発明の1つの実施形態に係る画像融合方法のフローチャートである。 図2におけるサブ画像を分析して情景に含まれるオブジェクトを取得するステップのフローチャートである。 サブ画像を分析することによってサブ画像に含まれるオブジェクトを取得する時の概略図である。 図2における各オブジェクトのパレート集合を確立するステップのフローチャートである。 図2におけるオブジェクトのパレート集合に基づいてオブジェクトを融合または接合し、サブ画像の融合後の画像を生成するステップのフローチャートである。 図6におけるパレート集合に入る各オブジェクト中のサブオブジェクトを融合して、各オブジェクトの融合後の画像を形成するステップのフローチャートである。
図1は、本発明の1つの実施形態に係る情景を撮影する撮影システムの概略図である。まず、図1を参照すると、本発明の1つの実施形態は、撮影システム10および画像融合方法を提供する。1つの実施形態において、撮影システム10は、複数のカメラ100A、100B、100C、100D、100E、100F、およびコントローラ200を含む。カメラの数は、単なる例であるため、本発明はこれに限定されない。
1つの実施形態において、カメラ100A、100B、100C、100D、100E、および100Fは、相補型金属酸化膜半導体(complementary metal-oxide semiconductor, CMOS)のフォトセンサまたは電荷結合素子(charge coupled device, CCD)のフォトセンサであってもよいが、本発明はこれに限定されない。カメラ100A、100B、100C、100D、100E、および100Fを使用して、情景Sを撮影し、複数のサブ画像(例えば、図4に示したサブ画像SI)を生成する。つまり、各カメラ100A、100B、100C、100D、100E、100Fが情景Sを撮像して、サブ画像を生成する。
1つの実施形態において、コントローラ200は、例えば、中央処理装置(central processing unit, CPU)、マイクロプロセッサ(microprocessor)、デジタル信号プロセッサ(digital signal processor, DSP)、プログラマブルコントローラ(programmable controller)、プログラマブル論理デバイス(programmable logic device, PLD)、または他の類似するデバイス、あるいはこれらのデバイスの組み合わせを含むが、本発明はこれに限定されない。また、1つの実施形態において、コントローラ200の様々な機能は、複数のプログラムコードとして実施されてもよい。これらのプログラムコードは、メモリユニットに保存され、プログラムコードは、コントローラ200によって実行される。あるいは、1つの実施形態において、コントローラ200の機能は、1つまたは複数の回路として実施されてもよい。本発明は、コントローラ200の機能がソフトウェアによって実施されるか、ハードウェアによって実施されるかを限定しない。
また、1つの実施形態において、1つの実施形態において、コントローラ200は、スマートフォン、モバイルデバイス、コンピュータ、ノート型パソコン、サーバー、AIサーバー、またはクラウドサーバー内に配置されてもよい。別の実施形態において、コントローラ200は、カメラ100A、100B、100C、100D、100E、100F内に直接配置されてもよい。しかしながら、本発明は、コントローラ200が配置される位置を限定しない。
1つの実施形態において、コントローラ200は、カメラ100A、100B、100C、100D、100E、および100Fに信号接続され、サブ画像を取得する。コントローラ200は、サブ画像を分析して、情景Sに含まれる複数のオブジェクトBG、O1、O2を取得する。そのうち、オブジェクトBG、O1、O2は、オブジェクトの種類に応じて、花、人、車(例えば、レクリエーション用車両、スポーツカー、オープンカー、SUV等)、背景(例えば、道、空、建物等)に分割することができる。例えば、図1のオブジェクトO1またはO2は、花、人、または車であってもよく、オブジェクトBGは、背景であってもよい。カメラ100A、100B、および100Cは、例えば、オブジェクトBGおよびO1を撮影することができ、カメラ100D、100E、および100Fは、例えば、オブジェクトBGおよびO2を撮影することができる。そのため、カメラ100A、100B、100C、100D、100E、および100Fによって撮像されたサブ画像を融合または接合した後、情景Sの完全な画像を生成することができる。
しかしながら、オブジェクトBG、O1、およびO2に対して各カメラ100A、100B、100C、100D、100E、および100Fが撮像した画像は、画質が異なる可能性がある。例えば、図1において、実線矢印は、比較的高画質であることを示し、破線矢印は、比較的低画質であることを示す。つまり、オブジェクトO1に対してカメラ100Aおよび100Bが撮像したサブ画像は、比較的高画質であるが、オブジェクトO1に対してカメラ100Cが撮像したサブ画像は、比較的低画質である。同様に、オブジェクトO2に対してカメラ100Dおよび100Eが撮像したサブ画像は、比較的高画質であるが、オブジェクトO2に対してカメラ100Fが撮像したサブ画像は、比較的低画質である。カメラ100A、100B、および100Cが撮像したサブ画像中の全てのオブジェクトO1が融合された場合、またはカメラ100D、100E、および100Fが撮像したサブ画像中の全てのオブジェクトO2が融合された場合には、画質の高い情景Sの完全な画像を取得することができない。そのため、1つの実施形態において、コントローラ200が各オブジェクトBG、O1、O2のパレート集合を確立した後、例えば、パレート最適解の集合をパレート集合と呼ぶが、コントローラ200は、オブジェクトBG、O1、O2のパレート集合に基づいてオブジェクトBG、O1、O2を接合し、サブ画像の融合後の画像を生成する。与えられた関数の解を考慮すると、複数の解が存在する可能性があり、これらの解のいくつかは、他よりも優れている可能性がある。そのため、パレート最適解を満たす解の集合をパレート集合と呼ぶ。
図2は、本発明の1つの実施形態に係る画像融合方法のフローチャートである。図1および図2を参照すると、本発明の1つの実施形態は、以下のステップを含む画像融合方法を提供する。ステップS100において、複数のカメラ100A、100B、100C、100D、100E、および100Fの各光学パラメータに基づいて最適な光学パラメータを計算する。ステップS200において、カメラ100A、100B、100C、100D、100E、および100Fを使用して情景Sを撮影し、複数のサブ画像を取得する。ステップS300において、サブ画像を分析して、情景に含まれる複数のオブジェクトBG、O1、O2を取得する。ステップS400において、各オブジェクトBG、O1、O2のパレート集合を確立する。ステップS500において、オブジェクトBG、O1、O2のパレート集合に基づいてオブジェクトBG、O1、O2を接合し、サブ画像の融合後の画像を生成する。
1つの実施形態において、各カメラ100A、100B、100C、100D、100E、および100Fの光学パラメータは、口径、焦点距離、感度、ホワイドバランス、または解析度を含む。1つの実施形態において、光学パラメータは、さらに、フルウェルキャパシティ(full well capacity, FWC)、飽和容量(saturation capacity)、絶対感度閾値(absolute sensitivity threshold, AST)、テンポラルダークノイズ(temporal dark noise)、ダイナミックレンジ(dynamic range)、量子効率(quantum efficiency, QE)、最大信号対雑音比(maximum signal-to-noise ratio, SNRmax)、Kファクター(K-factor)等を含む。
以下、本発明の1つの実施形態に基づく撮影システム10および画像融合方法によってサブ画像の融合後の画像を生成するプロセスについて詳しく説明する。
図3は、図2におけるサブ画像を分析して情景に含まれるオブジェクトを取得するステップのフローチャートである。図4は、サブ画像を分析することによってサブ画像に含まれるオブジェクトを取得する時の概略図である。図2、図3、および図4を参照すると、1つの実施形態において、上述したステップS300は、以下のステップを含む。ステップS320において、パノプティックセグメンテーションアルゴリズム(panoptic segmentation algorithm)を使用して、サブ画像SIを分析する。パノプティックセグメンテーションアルゴリズムは、インスタンス(instance)およびセマンティック(semantic)セグメンテーションの両方からの予測を一般的な統一された出力に結合し、各サブ画像SIに含まれるオブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8およびそれらの境界を取得するイメージセグメンテーションである。ステップS340において、情景Sに含まれるオブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8のオブジェクトタイプに基づいてオブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8に番号を付ける。
例えば、図4は、情景Sを撮影することによってカメラ100A、100B、100C、100D、100E、および100Fのうちの1つによって得られたサブ画像SIを示したものである。コントローラ200は、パノプティックセグメンテーションアルゴリズムを使用してサブ画像SIを分析した後、オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8を取得することができる。オブジェクトC1、C2、C3、およびC4は、車である。そのため、コントローラ200は、例えば、参照番号car#1、car#2、car#3、およびcar#4をそれぞれオブジェクトC1、C2、C3、およびC4に割り当てることができる。オブジェクトH1、H2、H3、H4、H5、H6、H7、およびH8は、人である。そのため、コントローラ200は、例えば、参照番号person#1、person#2、person#3、person#4、person#5、person#6、person#7、およびperson#8をそれぞれオブジェクトH1、H2、H3、H4、H5、H6、H7、およびH8に割り当てることができる。さらに、オブジェクトBB1およびBS1は、背景であるが、オブジェクトBB1は、建物の背景であり、オブジェクトBS1は、空の背景である。そのため、コントローラ200は、例えば、参照番号building#1およびsky#1をオブジェクトBB1およびBS1に割り当てることができる。
図5は、図2における各オブジェクトのパレート集合を確立するステップのフローチャートである。図2および図5を参照すると、1つの実施形態において、各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8は、少なくとも1つのサブオブジェクトを含み、各サブオブジェクトは、各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8がサブ画像SIのうちの1つに出現する画像範囲である。例えば、撮影システム10におけるカメラ100A、100B、100C、100D、100E、100Fのうちのいくつかによって、オブジェクトC1を撮像することができる。つまり、全てのカメラでオブジェクトC1を撮像しなくてもよい。そのため、サブオブジェクトは、オブジェクトC1を撮像するこれらのカメラの各サブ画像内の画像範囲であり、オブジェクトC1は、これらのサブオブジェクトを含む。図1を例に挙げると、オブジェクトO1は、カメラ100A、100B、および100Cによって撮影されるため、オブジェクトO1は、3つのサブオブジェクトを含み、オブジェクトO2は、カメラ100D、100E、および100Fによって撮影されるため、オブジェクトO1は、3つのサブオブジェクトを含む。
1つの実施形態において、上述したステップS400は、以下のステップを含む。ステップS420において、情景Sの各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8において、異なるサブ画像SI中の各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8に含まれる全てのサブオブジェクトに対応する画像フィードバックパラメータを収集する。各画像フィードバックパラメータは、画質指標(image quality indicator, IQI)および撮像位置指標(imaging position indicator, IPI)を含む。ステップS440において、画像フィードバックパラメータおよび少なくとも1つのサブオブジェクトに対応する最適化された光学パラメータに基づいて、多目的シミュレーテッドアニーリングアルゴリズム(multi-objective simulated annealing algorithm)を使用して各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8のパレート集合を確立する。多目的シミュレーテッドアニーリングアルゴリズムは、与えられた関数の大域的最適解(global optimum)を近似する確率的技法である。
図6は、図2におけるオブジェクトのパレート集合に基づいてオブジェクトを融合または接合し、サブ画像の融合後の画像を生成するステップのフローチャートである。図2および図6を参照すると、1つの実施形態において、上述したステップS500は、以下のステップを含む。ステップS520において、各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8においてパレート集合に入るサブオブジェクトを融合し、各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8の融合画像を形成する。ステップS540において、各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8の融合画像を接合し、サブ画像SIの融合後の画像を生成する。
図1を例に挙げると、オブジェクトO1のサブオブジェクトにおいて、カメラ100Cに対応するサブオブジェクトは、例えば、ピント外れやその他の理由により、画質指標および撮像位置指標が比較的悪い。そのため、コントローラ200は、好ましくは、カメラ100Aおよび100Bに対応する2つのサブオブジェクトのみを融合する。つまり、オブジェクトO1のサブオブジェクトのうち、カメラ100Aおよび100Bに対応する2つのサブオブジェクトがパレート集合に入る。同様に、オブジェクトO2のサブオブジェクトにおいて、カメラ100Fに対応するサブオブジェクトは、例えば、ピント外れやその他の理由により、画質指標および撮像位置指標が比較的悪い。そのため、コントローラ200は、好ましくは、カメラ100Dおよび100Eに対応する2つのサブオブジェクトのみを融合する。つまり、オブジェクトO2のサブオブジェクトのうち、カメラ100Dおよび100Eに対応する2つのサブオブジェクトがパレート集合に入る。画質指標または撮像位置指標の値が低ければ低いほど、高画質であることを示し、反対に、画質指標または撮像位置指標の値が高ければ高いほど、低画質であることを示す。
図7は、図6におけるパレート集合に入る各オブジェクト中のサブオブジェクトを融合して、各オブジェクトの融合後の画像を形成するステップのフローチャートである。図6および図7を参照すると、1つの実施形態において、上述したステップS520は、以下のステップを含む。ステップS522において、非剛性アライメントアルゴリズム(non-rigid alignment algorithm)を使用し、パレート集合に入るサブオブジェクトに基づいてアライメント基準を確立する。非剛性アライメントアルゴリズムは、非剛性オブジェクト間で位置合わせを行う画像アライメントアルゴリズムである。ステップS524において、各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8のオブジェクトタイプに基づいて融合方法を選択する。ステップS526において、アライメント基準および融合方法に基づいて各オブジェクトBB1、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H6、H7、およびH8中のパレート集合に入るサブオブジェクトを融合する。
図1を例に挙げると、カメラ100A、100B、100C、100D、100E、100Fは、異なる角度または異なる位置でそれぞれ情景Sを撮影することができる。そのため、コントローラ200は、非剛性アライメントアルゴリズムを使用して、異なるサブオブジェクト間のアライメント基準を確立し、オブジェクトO1およびO2のオブジェクトタイプに基づいて、カメラ100Aおよび100Bに対応する2つのサブオブジェクトを融合してオブジェクトO1の融合画像を形成し、カメラ100Dおよび100Eに対応する2つのサブオブジェクトを融合してオブジェクトO2の融合画像を形成する。
1つの実施形態において、上述した融合方法は、離散ウェーブレット変換(discrete wavelet transform)、均一有理フィルタバンク(uniform rational filter bank)、またはラプラシアンピラミッド(Laplacian pyramid)を含む。
以上のように、本発明の1つの実施形態に基づく撮影システムおよび画像融合方法は、カメラを使用して情景を撮影し、サブ画像を取得した後、コントローラを使用してサブ画像を分析し、情景に含まれるオブジェクトを取得する。コントローラが各オブジェクトのパレート集合を確立した後にオブジェクトを接合し、サブ画像の融合後の画像を生成する。接合および融合のプロセスにおいて画質の悪い部分が排除されるため、サブ画像の融合後の画像は、より優れた画質を有する。また、カメラは、白黒カメラまたはカラーカメラに限定されないため、コントローラは、白黒画像におけるグレーレベルの画素を使用して、カラー画像における画素のカラー値の変更に役立てることができ、それにより、画質を向上させることができる。コントローラは、また、白黒カメラを使用して、より高い画像解析度を提供することができるため、それにより、画像解析度を上げることができる。
また、コントローラは、非剛性アライメントアルゴリズムを使用して、サブオブジェクトの位置合わせを行い、オブジェクトのオブジェクトタイプに基づいて融合方法を選択するため、本発明の実施形態に基づく撮影システムおよび画像融合方法は、カメラを様々な情景の処理が可能な汎用カメラに変換することもできる。
以上のごとく、この発明を実施形態により開示したが、もとより、この発明を限定するためのものではなく、当業者であれば容易に理解できるように、この発明の技術思想の範囲内において、適当な変更ならびに修正が当然なされうるものであるから、その特許権保護の範囲は、特許請求の範囲および、それと均等な領域を基準として定めなければならない。
本発明の撮影システムおよび画像融合方法は、複数のカメラを有する撮影システムおよび複数の画像の画像融合に応用することができる。
100A、100B、100C、100D、100E、100F カメラ
200 コントローラ
BB1、BG、BS1、C1、C2、C3、C4、H1、H2、H3、H4、H5、H 6、H7、H8、O1、O2 オブジェクト
S 情景
SI サブ画像
S100、S200、S300、S320、S340、S400、S420、S440、S500、S520、S540、S522、S524、S526 ステップ

Claims (5)

  1. 情景を撮影して、複数のサブ画像を生成する複数のカメラと、
    前記カメラに信号接続され、前記サブ画像を取得するコントローラと、
    を含み、
    前記コントローラが、前記サブ画像を分析して、前記情景に含まれる複数のオブジェクトを取得するとともに、
    前記コントローラが、各前記オブジェクトのパレート集合を確立し、各前記オブジェクトの前記パレート集合に基づいて前記オブジェクトを接合し、前記サブ画像の融合後の画像を生成し、
    各前記オブジェクトが、サブオブジェクトを含み、前記サブオブジェクトが、各前記オブジェクトが前記サブ画像のうちの1つに出現する画像範囲であり、
    前記コントローラが、前記カメラの各光学パラメータに基づいて最適化された光学パラメータを計算し、
    前記コントローラが、前記情景の各前記オブジェクトから異なるサブ画像中の各前記オブジェクトに含まれる全ての前記サブオブジェクトに対応する画像フィードバックパラメータを収集するとともに、前記画像フィードバックパラメータおよび前記サブオブジェクトに対応する前記最適化された光学パラメータに基づいて、多目的シミュレーテッドアニーリングアルゴリズムを使用して各前記オブジェクトの前記パレート集合を確立する撮影システム。
  2. 前記コントローラが、パノプティックセグメンテーションアルゴリズムを使用して前記サブ画像を分析し、各前記サブ画像に含まれる前記オブジェクトおよびそれらの境界を取得するとともに、前記情景に含まれる前記オブジェクトのオブジェクトタイプに基づいて前記オブジェクトに番号を付け、前記情景に含まれる前記オブジェクトを取得する請求項1に記載の撮影システム。
  3. 前記コントローラが、前記パレート集合に入る各前記オブジェクトの前記サブオブジェクトを融合し、前記オブジェクトの複数の融合画像を形成するとともに、前記オブジェクトの前記融合画像を接合して、前記サブ画像の融合後の前記画像を生成する請求項2に記載の撮影システム。
  4. 前記コントローラが、非剛性アライメントアルゴリズムを使用して、前記パレート集合に入る前記サブオブジェクトに基づいてアライメント基準を確立した後、各前記オブジェクトのオブジェクトタイプに基づいて融合方法を選択するとともに、前記アライメント基準および前記融合方法に基づいて前記パレート集合に入る各前記オブジェクトの前記サブオブジェクトを融合する請求項3に記載の撮影システム。
  5. 複数のカメラの各光学パラメータに基づいて最適化された光学パラメータを計算するステップと、
    前記カメラを使用して情景を撮影し、複数のサブ画像を取得するステップと、
    前記サブ画像を分析して、前記情景に含まれる複数のオブジェクトを取得するステップと、
    各前記オブジェクトのパレート集合を確立するステップと、
    各前記オブジェクトの前記パレート集合に基づいて前記オブジェクトを接合し、前記サブ画像の融合後の画像を生成するステップと、
    を含み、
    各前記オブジェクトが、サブオブジェクトを含み、前記サブオブジェクトが、各前記オブジェクトが前記サブ画像のうちの1つに出現する画像範囲であり、各前記オブジェクトのパレート集合を確立するステップが、
    前記情景の各前記オブジェクトから異なるサブ画像中の各前記オブジェクトに含まれる全ての前記サブオブジェクトに対応する画像フィードバックパラメータを収集することと、
    前記画像フィードバックパラメータおよび前記サブオブジェクトに対応する前記最適化された光学パラメータに基づいて、多目的シミュレーテッドアニーリングアルゴリズムを使用して各前記オブジェクトの前記パレート集合を確立することと、を含む画像融合方法。
JP2023022643A 2022-08-18 2023-02-16 撮影システムおよび画像融合方法 Active JP7557560B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW111131061 2022-08-18
TW111131061A TWI819752B (zh) 2022-08-18 2022-08-18 拍攝系統及影像融合的方法

Publications (2)

Publication Number Publication Date
JP2024028090A JP2024028090A (ja) 2024-03-01
JP7557560B2 true JP7557560B2 (ja) 2024-09-27

Family

ID=84568798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023022643A Active JP7557560B2 (ja) 2022-08-18 2023-02-16 撮影システムおよび画像融合方法

Country Status (5)

Country Link
US (1) US20240062339A1 (ja)
EP (1) EP4325428B1 (ja)
JP (1) JP7557560B2 (ja)
CN (1) CN117676301A (ja)
TW (1) TWI819752B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118429784B (zh) * 2024-07-02 2024-10-01 深圳市华方信息产业有限公司 协同式图像处理方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220237813A1 (en) 2021-01-28 2022-07-28 Qualcomm Incorporated Image fusion for scenes with objects at multiple depths

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8411938B2 (en) * 2007-11-29 2013-04-02 Sri International Multi-scale multi-camera adaptive fusion with contrast normalization
WO2017079657A1 (en) * 2015-11-04 2017-05-11 Intel Corporation Use of temporal motion vectors for 3d reconstruction
US20190122082A1 (en) * 2017-10-23 2019-04-25 Motionloft, Inc. Intelligent content displays
US11676284B2 (en) * 2019-03-22 2023-06-13 Nvidia Corporation Shape fusion for image analysis
US11210769B2 (en) * 2019-05-03 2021-12-28 Amazon Technologies, Inc. Video enhancement using a recurrent image date of a neural network
US20210027439A1 (en) * 2019-07-22 2021-01-28 Qualcomm Incorporated Orientation adjustment of objects in images
CN112995467A (zh) * 2021-02-05 2021-06-18 深圳传音控股股份有限公司 图像处理方法、移动终端及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220237813A1 (en) 2021-01-28 2022-07-28 Qualcomm Incorporated Image fusion for scenes with objects at multiple depths

Also Published As

Publication number Publication date
JP2024028090A (ja) 2024-03-01
TWI819752B (zh) 2023-10-21
EP4325428B1 (en) 2025-08-13
US20240062339A1 (en) 2024-02-22
CN117676301A (zh) 2024-03-08
EP4325428A1 (en) 2024-02-21
EP4325428C0 (en) 2025-08-13
TW202410683A (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
TWI899424B (zh) 用於針對具有多個深度處的目標的場景的影像融合的方法、設備,和非暫時性電腦可讀取媒體
US9883125B2 (en) Imaging systems and methods for generating motion-compensated high-dynamic-range images
US10009540B2 (en) Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data
JP2020039130A (ja) 撮像装置
CN101690160B (zh) 用于使用自动聚焦统计的运动检测的方法、系统及设备
CN107205109A (zh) 具有多摄像模块的电子装置及其控制的方法
WO2017170716A1 (ja) 撮像装置、画像処理装置、および電子機器
US11593958B2 (en) Imaging device, distance measurement method, distance measurement program, and recording medium
CN104243804B (zh) 摄像设备、图像处理设备及其控制方法
JP7557560B2 (ja) 撮影システムおよび画像融合方法
JPWO2017057492A1 (ja) 撮像装置および画像処理装置
CN115314697A (zh) 图像处理设备和方法、摄像设备及其控制方法和存储介质
WO2007043325A1 (ja) 画像処理システム、画像処理プログラム
JP5332493B2 (ja) カメラ、画像共有サーバ及び画像共有プログラム
JP5359930B2 (ja) 撮像装置、表示方法、および、プログラム
JP6900577B2 (ja) 画像処理装置及びプログラム
JP7191680B2 (ja) 画像処理装置および撮像装置
WO2017170717A1 (ja) 撮像装置、焦点調節装置、および電子機器
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
CN114202488A (zh) 一种图像融合方法及装置
JP2024176038A (ja) 信号処理装置、信号処理方法
JP2016095229A (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
JP2018050231A (ja) 撮像装置、撮像方法および撮像制御プログラム
WO2017170719A1 (ja) 撮像装置、および電子機器
CN102387301A (zh) 成像设备和成像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240913

R150 Certificate of patent or registration of utility model

Ref document number: 7557560

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150